Position:Home > spark

spark

spark - MtrS的个人页面 - 开源中国社区 首页 开源项目 Java 开源软件 C# 开源软件 PHP 开源软件 C/C++ 开源软件 Ruby 开源软件 Python 开源软件 Go开源软件 JS开源软件 问答 技术问答 » 技术分享 » IT大杂烩 » 职业生涯 » 站务/建议 » 支付宝专区 » 开源硬件专区 » 代码 博客 翻译 资讯 移动开发 Android开发专区 iOS开发专区 iOS代码库 Windows Phone 招聘 城市圈 当前访客身份:游客 [ 登录 | 加入开源中国 ] 当前访客身份: 游客 [ 登录 | 加入开源中国 ] 软件 代码 讨论区 新闻 博客 软件 软件 代码 讨论区 新闻 博客 MtrS 关注 (11) 粉丝 (14) 积分 (72) 弱水三千 取一瓢饮 . 发送私信 . 请教问题 博客分类 Python内核 (27) 谎言OR大数据 (8) Linux 日常 (16) python (2) 算法 (4) plan9 (2) todo (2) Java (8) 数据库 (22) 瑞士军刀 (4) Golang (38) 真实的世界 (14) ASM (5) 每日记录 (16) web前端技术 (3) 服务器 (14) 工作日志 (11) Python (21) 转贴的文章 (2) 阅读排行 1. fctix 安装笔记 2. kvm+vnc安装windowsXP 3. Python 连接 hive 查询数据 4. sbt 编译spark 的wordcount 程序 5. postgres-xc 6. IDEA 编辑器设置 7. SQL三种东西永远不要放到数据库里 8. PostgreSQL 归档出错 最新评论 @芭菲雨 :妮子去哪了 查看» @Tudo :恶心你还用,是不是说明你更恶心 查看» @余哥Cse :我也觉得php恶心,弱类型。。。 查看» @u22b :''.join(revers(xx)[::-1])... 查看» @御坂0x3de2 :Rust 还没稳定么 查看» @CodeBab :感觉没什么精髓 查看» @刘延浩 :顶 查看» @maplewang :牛公司 查看» @MtrS :not well 查看» @MtrS :引用来自“tube”的评论http://www.xuyukun.com ... 查看

Recommend:Spark Streaming

xt(sc, 30) Then I would like to use window() function for getting the data for the last hour and slicing each 30 sec accross this data. kvs = KafkaUtils.createDirectStream(ssc, [topic], {"metadata.broker.list": brokers}

» 友情链接 1. spark 作业系统 2. 推荐系统 3. 数学建模-python 访客统计 今日访问: 21 昨日访问: 22 本周访问: 105 本月访问: 121 所有访问: 19557 空间 » 博客 » Python内核 谎言OR大数据 Linux 日常 python 算法 plan9 todo Java 数据库 瑞士军刀 Golang 真实的世界 ASM 每日记录 web前端技术 服务器 工作日志 Python 转贴的文章 所有分类 原 顶 spark 发表于3周前(2016-04-14 22:20)

阅读( 22 ) | 评论( 0 ) 0 人收藏此文章, 赞 0 上海源创会5月15日与你相约【玫瑰里】,赶快来约哦~!>>>

http://central.maven.org/maven2/org/apache/spark/spark-streaming-kafka_2.10/1.6.1/spark-streaming-kafka_2.10-1.6.1.jar 分享到: 0 赞 声明:OSCHINA 博客文章版权属于作者,受法律保护。未经作者同意不得转载。 « 上一篇 下一篇 » 最新热门职位 更多开发者职位上 开源中国·招聘 hadoop 百分点 月薪: 10-15K Hadoop架构师 平安陆金所 月薪: 30-50K 数据挖掘工程师 分期乐 月薪: 15-25K 华 算法推荐工程师 华语兄弟 月薪: 15-25K 评论 楼: ( ) 手机 Android iPhone Windows Phone 微信 发表于 删除 回复此评论 < 1 > 插入: 表情 开源软件 发表评论 插入: 表情 开源软件 关闭 插入表情 关闭 相关文章阅读 2015/06/20 Spark初探 2015/08/10 spark技巧 2015/11/03 spark join 2015/11/19 spark初识 2014/03/15 Hello Spark ~ © 开源中国(OSChina.NET) | 关于我们 | 广告联系 | @新浪微博 | 开源中国手机版 | 粤ICP备12009483号-3 开源中国手机客户端: Android iPhone WP7 开源中国社区(OSChina.net)是工信部 开源软件推进联盟 指定的官方社区

Recommend:Convert Spark Java to Spark scala

possible to convert the following Java code to scala Thanks! JavaPairRDD<String,Tuple2<String,String>> newDataPair = newRecords.mapToPair(new PairFunction<String, String, Tuple2<String, String>>() { privat

Recommend:【Spark】----Spark on Yarn

最近从Hadoop 1.x 转到Hadoop 2.x 同时将一些java 程序转为Scala的程序将平台上的代码减少了很多,在实施的过程中,开到一些Spark相关的YARN的部署上都是基于之前的Hadoop 1.x的部分方式,在Hadoop2.2 +版本之上 基本上就不用这么部署了

Your Answer
(Ctrl+Enter To Post)   
    Copyright © 2015-2017 163JAVA.COM All Rights Reserved.