Position:Home > spark

spark

spark - 风中一叶 - 51CTO技术博客 51CTO首页 51CTO博客 我的博客 搜索 每日博报 招聘 学院 论坛 博客 下载 更多 家园 学院 博客 论坛 下载 自测 门诊 周刊 读书 题库 招聘 风中一叶 http://gldbhome.blog.51cto.com 【复制】 【订阅】 原创 :34 翻译 :0 转载 :140 博 客 | 图库 | 写博文 | 帮 助 首页 | oracle基础 | DG/RAC | oracle性能 | sybase&mssql | redis | 操作系统-虚拟化 | 案例简记 | 测试研究 | 常用整理 | IT管理&信息化 | Mysql | Java&Java Web | 数据分析和挖掘 | hadoop | sas | storm | zookeeper | hive | hbase | spark gl_windhome 的BLOG 写留言 去学院学习 发消息 加友情链接 进家园 加好友 2012年度IT博客大赛 十大杰出IT博客诞生 友情链接 你若盛开,清风自来 专注大数据研究 lskyne的专栏 数据娃掘的技术博客 我爱大海V5的专栏 走在前往架构师的路上 SQL Server DBA IT精品课程 hcymysql 爱mysql jimmy li david_yeung mysql dba 中国云计算 中国大数据 leonardi

Recommend:Spark Streaming

xt(sc, 30) Then I would like to use window() function for getting the data for the last hour and slicing each 30 sec accross this data. kvs = KafkaUtils.createDirectStream(ssc, [topic], {"metadata.broker.list": brokers}

ng Oracle Database Roger OS与Oracle dbtan ORACLE DBA 信春哥 惜分飞 Ask Maclean Oracl.. oracledba oracle斩月 一沙弥的世界 secooler 无双小宝 石头磨牙 dbsnake niubro warehouse Hello DBA 老熊的三分地 天堂向左 DBA向右 yangtingkun 三思网站 eygle 专著SQL调优 数据库吧 David博客 关注ORACLE EBS DBA博友 搜索BLOG文章 博客统计信息 用户名:gl_windhome 文章数:175 评论数:1 访问量:24936 无忧币:799 博客积分 :908 博客等级 :4 注册日期:2010-05-03 热门文章 v$sql、v$sqlarea、v$sql.. SPID、PID、SID区别 ORACLE RAC工作原理 Oracle RAC系列之:RAC正.. Oracle 11G DataGuard的.. shell面试题(1) DataGard维护版 用xtrabackup实现mysql的.. 最新评论 51cto_blog : 友情提醒:关于博文标签的设置 &.. 我最近发表的评论 文章 文章列表>> 暂无文章! 等待用户 gl_windhome 添加! 每日博报 精彩不止一点 Copyright By 51CTO.COM 版权所有

Recommend:Convert Spark Java to Spark scala

possible to convert the following Java code to scala Thanks! JavaPairRDD<String,Tuple2<String,String>> newDataPair = newRecords.mapToPair(new PairFunction<String, String, Tuple2<String, String>>() { privat

Recommend:【Spark】----Spark on Yarn

最近从Hadoop 1.x 转到Hadoop 2.x 同时将一些java 程序转为Scala的程序将平台上的代码减少了很多,在实施的过程中,开到一些Spark相关的YARN的部署上都是基于之前的Hadoop 1.x的部分方式,在Hadoop2.2 +版本之上 基本上就不用这么部署了

Your Answer
(Ctrl+Enter To Post)   
    Copyright © 2015-2017 163JAVA.COM All Rights Reserved.