登录/
注册
题库分类
下载APP
帮助中心
首页
考试
搜题
APP
当前位置:
首页
>
查试题
>
知识竞赛
>
其他知识竞赛
>
spark中driver在任务调度中不负责task执行结果的回收
判断题
spark中driver在任务调度中不负责task执行结果的回收
查看答案
该试题由用户607****79提供
查看答案人数:35946
如遇到问题请
联系客服
正确答案
该试题由用户607****79提供
查看答案人数:35947
如遇到问题请
联系客服
搜索
相关试题
换一换
判断题
spark中driver在任务调度中不负责task执行结果的回收
答案
多选题
spark任务调度中driver具有哪些作用()
A.java B.scala C.go D.r
答案
多选题
spark架构中的任务调度中的driver具有以下哪些作用()
A.action算子 B.转换算子 C.控制算子 D.触发算子
答案
判断题
spark任务执行中的driver作用包括和worker建立相应连接()
答案
单选题
Spark任务的container可以运行多个task()
A.对 B.错
答案
单选题
Spark任务的Excutor可以运行多个task()
A.对 B.错
答案
单选题
worker组件在spark的任务调度中具有以下哪个作用()
A.计算数据 B.存储数据 C.运送数据 D.心跳检测
答案
判断题
spark架构在运行过程中是通过driver完成资源申请
答案
单选题
spark-submit配置项中()表示Driver程序使用的内存大小
A.--driver-memory MEM B.--executor-memory MEM C.--total-executor-cores NUM D.--executor-coures NUM
答案
多选题
数据工场DataWorks(原DatalDE)中,任务task1是任务task2的上游任务,任务task2是任务task3的上游任务,3个任务都是按天调度的周期调度任务,2016年4月9日,task1运行失败。task2和task3未运行。经查发现task1代码语法有误导致失败。修复好task1的代码后,以下做法能保证3个任务正常重跑的有()
A.对task1操作重跑并恢复调度 B.对task1操作重跑下游并恢复调度。选择task1.task2. task 3 C.对task1操作置为成功并恢复调度 D.对task2操作重跑并恢复调度
答案
热门试题
通过数据工场DataWorks(原Data|DE)的运维中心的任务运维视图可以对任务进行重跑下游并恢复调度,即首先重跑选中的任务,成功后,该任务的下游任务中处于未行状态的任务会恢复调度。任务task1是任务task2的上游任务,task2是任务task3的上游任务,以下使用“重跑下游并恢复调度的场景中操作错误的是()
数据工场DataWorks(原DatalDE)中,task1和task2者是按天调度的周期性调度任务,task1设置定时时间为02:00,task2设置定时时间为00:00,task2依赖属性的上游任务配置为task1,每天task2何时可以运行?()
数据工场DataWorks(原DataIDE)中,任务task1是按小时调度的周期性调度任务,任务配置为在00:00至23:59之间每1小时执行次,每次执行生成前一个小时的数据。任务task2是按天调度的周期性调度任务,每次执行都是处理task1最新生成的一整天的数据。为了保证task2每次运行前,task1最新的一整天的数据已经成功生成,task1和task2需要如何配置?()
DataIDE中,调度系统可以根据配置好的任务属性进行自动调度。属性中包含的生效日期是指任务在有效期内可以进行调度运行,任务task1的生效日期为2016-01-01至2016-06-30,以下关于任务task1的说法中正确的有()
通过数据工场DataWorks(原DatalDE)的运维中心的任务运维视图可以对任务进行重跑下游并恢复调度。即首先重跑选中的任务。成功后,该任务的下游任务中处于未运行状态的任务会恢复调度。任务task1是任务task2的上游任务,task2是任务task3的上游任务,以下使用重跑下游并恢复调庋的场震中操作错误的是()
Spark作业的每个阶段被Spark环境分解为多个任务,任务并行运行在分布于中的RDD上()
DatalDE中,项目空间prj1的SQL任务task1中,部分数据来源于项目空间prj2的任务task2生成的表table2,task1和task2都是按天调度的周期性调度任务,task1每次执行要使用table2同周期生成的数据,为了保证task1能正常执行,即每次运行时所需的table2数据已经生成,以下task1和task2配说法正确的是?()
spark基于客户端模式运行时,driver会随机启动
DataIDE中,虚拟节点类型是空跑节点,即调度时直接返回成功状态不会真正执行。两个周期调度任务task1、task2之间没有依赖关系,业务上也没有共同上游任务,但是希望可以有一个共同的父任务进行统筹官理,那么可以创建一个虚拟节点作为task1和task2的上游任务()
DataIDE中,虚拟节点类型是空跑节点,即调度时直接返回成功状态不会真正执行。两个周期调度任务task1、task2之间没有依赖关系,业务上也没有共同上游任务,但是希望可以有一个共同的父人物进行统筹管理,那么可以创建一个虚拟节点作为task1和task2的上游任务()
DataIDE中,调度任务每次运行前都先将任务实例化,即生成一个实例,调度运行时实际上在执行相应的实例。可以通过运维中心的任务运维管理暂停任务自动调度的实例。如果按天调度的同期性任务task1的2016年4月9日自动调度的实例操作暂停,以下关于task1的说法中正确的是()
DataIDE中,任务task1是按天调度的周期任务,task1生成分区表tabe1该表每次执行生成的分区(分区名ds)取前一天日期的年月日(格式为yyymmdd),要使用调度系统提供的时间参数定义table1的分区,使得task1每次调度运行时自动替换时间值,task1应该如何配置?()
在MaxCompute中,所有的请求都会被转化为任务(Task)()
在ODPS中,所有的请求都会被转化为任务(Task)()
数据工场DataWorks(原DatalDE)中,调度任务每次运行前都先将任务实例化,即生成一个实例,调度运行时实际上在执行相应的实例。可以通过运维中心的任务运维管理暂停任务自动调度的实例。如果按天调度的同期性任务task1的2016年4月9日自动调度的实例操作暂停,以下关于task1的说法中正确的是()
数据工场DataWorks(原DatalDE)中,SQL任务task1是按小时调度的周期性调度任务,任务配置为每1小时执行次,每次执行生成的分区表table1的分区值取前一个小时的年月日时,格式为yyyymmddhh24要使用调度系统提供的时间参数定义分区,使得task1每次调度运行时自动替换时间值task1应该如何配置?()
数据工场DataWorks(原DataIDE)中,SQL任务task1是按天调度的周期性调度任务,每天执行一次,每次执行生成表table1的一个分区,分区ds值取前一天的日期(格式yyy/mm/d),要使用调度系统提供的时间参数定义table1的分区,使得task1每次调度运行时自动替换时间值,task1应该()
DataIDE中,task1和task2都是按天调度的周期性调度任务,task1生成分区表table1,task2生成分区表table2,每天task2取table1最新分区的数据进行统计,而task1有部据来源是tabe2前一天分区的数据。Task1和task2的依赖关系需要如何配置?()
运维部门负责许可工作票中调度管辖设备的工作任务()
Spark应用运行时,如果某个task运行失败则导致整个app运行失败()
购买搜题卡
会员须知
|
联系客服
免费查看答案
购买搜题卡
会员须知
|
联系客服
关注公众号,回复验证码
享30次免费查看答案
微信扫码关注 立即领取
恭喜获得奖励,快去免费查看答案吧~
去查看答案
全站题库适用,可用于E考试网网站及系列App
只用于搜题看答案,不支持试卷、题库练习 ,下载APP还可体验拍照搜题和语音搜索
支付方式
首次登录享
免费查看答案
20
次
微信扫码登录
账号登录
短信登录
使用微信扫一扫登录
获取验证码
立即登录
我已阅读并同意《用户协议》
免费注册
新用户使用手机号登录直接完成注册
忘记密码
登录成功
首次登录已为您完成账号注册,
可在
【个人中心】
修改密码或在登录时选择忘记密码
账号登录默认密码:
手机号后六位
我知道了
APP
下载
手机浏览器 扫码下载
关注
公众号
微信扫码关注
微信
小程序
微信扫码关注
领取
资料
微信扫码添加老师微信
TOP