单选题

Spark中DataFrame的()方法是进行条件查询

A. where
B. join
C. limit
D. apply

查看答案
该试题由用户300****22提供 查看答案人数:32195 如遇到问题请 联系客服
正确答案
该试题由用户300****22提供 查看答案人数:32196 如遇到问题请联系客服

相关试题

换一换
热门试题
Spark创建DataFrame对象方式有() 字段检索中的AU=JACK.SPARK,含义是查询出版单位是JACK SPARK的图书 SparkSQL是Spark用来处理结构化数据的一个模块,它提供了一个编程抽象叫做DataFrame并且作为分布式SQL查询引擎的作用 中国大学MOOC: Spark的组件中,用于做查询分析的是() 模糊查询是指通过在查询条件内容中输入模糊比对通配符号进行查询的一种方法() 扩展库pandas中DataFrame结构的diff()对象支持进行数据差分,返回新的DataFrame对象。 扩展库pandas中DataFrame对象groupby()方法的参数as_index=False时用来设置分组的列中的数据不作为结果DataFrame对象的index 在馆藏查询的典藏查询中,不能按照哪个查询条件进行查询() Spark GraphX中类Graph的aggregateMessages方法可以()。 Spark GraphX中类Graph的reverse方法可以() Spark GraphX中类Graph的joinVertices方法可以()。 给定df是一个DataFrame对象,对df所有字段进行描述性统计,可以利用的方法为() Spark GraphX中类Graph的collectNeighborIds(edgeDirection: EdgeDirection)方法可以() 扩展库pandas支持使用Python字典直接创建DataFrame对象,此时字典中的“键”将作为DataFrame中的columns。 只使用qiang号作为查询条件进行查找的检索方法,属于() 使用扩展库pandas中DataFrame对象的iloc方法访问数据时,可以使用DataFrame的index标签,也可以使用整数序号来指定要访问的行和列。 扩展库pandas中DataFrame对象的drop_duplicates()方法可以用来删除重复的数据 执行 Spark 任务有两种方式,一种是 Spark-submit,一种是 Spark-shell。当我们 在生产部署与发布的时候通常使用 spark-submit 脚本进行提交的() spark本身没有读取hdfs数据的方法() spark本身自带读取hdfs数据的方法
购买搜题卡 会员须知 | 联系客服
会员须知 | 联系客服
关注公众号,回复验证码
享30次免费查看答案
微信扫码关注 立即领取
恭喜获得奖励,快去免费查看答案吧~
去查看答案
全站题库适用,可用于E考试网网站及系列App

    只用于搜题看答案,不支持试卷、题库练习 ,下载APP还可体验拍照搜题和语音搜索

    支付方式

     

     

     
    首次登录享
    免费查看答案20
    微信扫码登录 账号登录 短信登录
    使用微信扫一扫登录
    登录成功
    首次登录已为您完成账号注册,
    可在【个人中心】修改密码或在登录时选择忘记密码
    账号登录默认密码:手机号后六位