Solo  当前访客:1 登录 注册
☆gater yu☆

~~ 一个java老鸟的博客 ~~

Spark-理解RDD

问题spark的计算模型是如何做到并行的呢?如果你有一箱香蕉,让三个人拿回家吃完,如果不拆箱子就会很麻烦对吧,哈哈,一个箱子嘛,当然只有一个人才能抱走了。这时候智商正常的人都知道要把箱子打开,倒出来香蕉,分别拿三个小箱子重新装起来,然后,各自抱回家去啃吧。Spark和很多其他分布式计算系统都借用了这种思想来实现并行:把一个超大的数据集,切分成N个小堆,找M个执行器(M<N),各自拿一块或多块...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 219 | 评论总数: 0 | 标签:

Spark实践-日志查询

环境win7jdk1.7.0_79(OracleCorporation)scalaversion2.10.5spark1.6.1详细配置:SparkPropertiesspark.app.idlocal-1461891171126spark.app.nameJavaLogQueryspark.driver.host10.170.26.123spark.driver.port34998spark.e...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 415 | 评论总数: 0 | 标签:

Spark-神奇的共享变量

一般情况下,当一个传递给Spark操作(例如map和reduce)的函数在远程节点上面运行时,Spark操作实际上操作的是这个函数所用变量的一个独立副本。这些变量被复制到每台机器上,并且这些变量在远程机器上 的所有更新都不会传递回驱动程序。通常跨任务的读写变量是低效的,但是,Spark还是为两种常见的使用模式提供了两种有限的共享变量:广播变量(broadcastvariable)和累加器(accu...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 193 | 评论总数: 0 | 标签:

Spark-sparkstreaming

概念关联初始化streamingcontext离散流输入dstreamdstream的转化dstream的输出操作缓存或者持久化checkpointing部署应用程序监控应用程序性能调优减少批数据的执行事件设置正确的批容量内存调优容错语义$(function(){$('pre.prettyprintcode').each(function(){varlines=$(this).text().spl...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 189 | 评论总数: 0 | 标签:

Spark-rdd的持久化

Spark最重要的一个功能是它可以通过各种操作(operations)持久化(或者缓存)一个集合到内存中。当你持久化一个RDD的时候,每一个节点都将参与计算的所有分区数据存储到内存中,并且这些数据可以被这个集合(以及这个集合衍生的其他集合)的动作(action)重复利用。这个能力使后续的动作速度更快(通常快10倍以上)。对应迭代算法和快速的交互使用来说,缓存是一个关键的工具。你能通过persist...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 190 | 评论总数: 0 | 标签:

Spark-快速上手

快速上手Spark的交互式shell(用Python或Scala)介绍它的API。当演示如何在Java,Scala和Python写独立的程序时,看编程指南里完整的参考。依照这个指南,首先从Spark网站下载一个Spark发行包。因为我们不会使用HDFS,你可以下载任何Hadoop版本的包。使用SparkShell。Spark的shell作为一个强大的交互式数据分析工具,提供了一个简单的方式来学习A...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 247 | 评论总数: 0 | 标签:

Spark-继续RDD

接着上篇博客的rdd的transformation有这么多常用的API:另一个action也有很多API:$(function(){$('pre.prettyprintcode').each(function(){varlines=$(this).text().split('').length;var$numbering=$('
    ').addClass('pre-numbering').h...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 394 | 评论总数: 0 | 标签:

spark1.6分布式集群环境搭建

1.概述本文是对spark1.6.0分布式集群的安装的一个详细说明,旨在帮助相关人员按照本说明能够快速搭建并使用spark集群。2.安装环境本安装说明的示例环境部署如下:IP外网IPhostname备注10.47.110.38120.27.153.137iZ237654q6qZMaster、Slaver10.24.35.51114.55.56.190iZ23pd81xqaZSlaver10.45....

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 236 | 评论总数: 0 | 标签:

spark-TopK算法

Case:输入:文本文件输出:(158,)(28,the)(19,to)(18,Spark)(17,and)(11,Hadoop)(10,##)(8,you)(8,with)(8,for)算法:首先实现wordcount,topk实现是以wordcount为基础,在分词统计完成后交换key/value,然后调用sortByKey进行排序。javaimportorg.apache.spark.Spa...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 262 | 评论总数: 0 | 标签:

Scala函数特性

通常情况下,函数的参数是传值参数;即参数的值在它被传递给函数之前被确定。但是,如果我们需要编写一个接收参数不希望马上计算,直到调用函数内的表达式才进行真正的计算的函数。对于这种情况,Scala提供按名称参数调用函数。示例代码如下:结果:在代码中,如果定义函数的时候,传入参数不是传入的值,而是传入的参数名称(如代码中使用t:=>Long而不是t:Long),在调用该函数时,不会立即执行和参数有...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 222 | 评论总数: 0 | 标签:

使用Spark框架中文分词统计

技术Spark+中文分词算法对爬取的网站文章的关键词进行统计,是进行主题分类,判断相似性的一个基础步骤。例如,一篇文章大量出现“风景”和“酒店”之类的词语,那么这篇文章归类为“旅游”类的概率就比较大。而在关于“美食”的文章中,“餐厅”和“美味”等词语出现的频率一般也会比较大。分词使用语言云http://www.ltp-cloud.com实现对一段中文先进行分词,然后通过Sparkstreaming...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 357 | 评论总数: 0 | 标签:

Spark-SparkSql

SparkSql允许spark执行sql语句,hivesql,scala的描述的基于关系的查询。其实是封装了新的RDD-SchemaRDD,由行对象组成,有一个模式描述每列的数据类型。SchemaRDD与关系型数据库的表很相似,可以通过存在的RDD/Parquet文件/Json文件/用Hive中的数据HiveSql创建。其中相关功能入口是SQLContext()及其子类。如HiveContext可...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 223 | 评论总数: 0 | 标签:

Spark-ML-01-小试spark分析离线商品信息

任务一个在线商品购买记录数据集,约40M,格式如下:Jack,iphonecover,9,99Jack,iphonecover,9,99Jack,iphonecover,9,99Jack,iphonecover,9,99完成统计:1.购买总次数2.客户总个数3.总收入4.最畅销的商品代码importjava.util.Collections;importjava.util.Comparator;i...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 389 | 评论总数: 0 | 标签:

Spark-ML-02-设计机器学习系统

机器学习在商业系统应该是用的最多了,和传统人工区分开,因为数据集量级太大和复杂度太高,机器可以发现人难以发现的模型,基于模型的方式处理可以避免人的情感偏见。人工也是不可以完全抛开的,比如监督式的学习,靠人工;来标记数据,训练模型。文本标记和文本的情感标识别,还有就是破解验证码时基于CNN大量的训练集要靠人来处理,也是醉了,那是很累啊。模型出来后,可以做成服务整合到其他系统中,机器学习应用在:个性化...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 222 | 评论总数: 0 | 标签:

大数据日志分析logstashlasticsearch\kibana

elk是指logstash,elasticsearch,kibana三件套,这三件套可以组成日志分析和监控工具注意:关于安装文档,网络上有很多,可以参考,不可以全信,而且三件套各自的版本很多,差别也不一样,需要版本匹配上才能使用。推荐直接使用官网的这一套:elkdownloads。比如我这里下载的一套是logstash1.4.2+elasticsearch1.4.2+kibana3.1.2安装el...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 207 | 评论总数: 0 | 标签:

Spark-数据分析可视化Zeppelin

官网介绍ApacheZeppelin提供了web版的类似ipython的notebook,用于做数据分析和可视化。背后可以接入不同的数据处理引擎,包括Spark,hive,tajo等,原生支持scala,Java,shell,markdown等。它的整体展现和使用形式和DatabricksCloud是一样的。安装其他组件都是好安装的,直接mvninstall是没问题的。而且zeppelin-web...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 314 | 评论总数: 0 | 标签:

Spark-Caching/Checkpointing

功能:cacheing和checkpointing这2种操作是都是用来防止rdd(弹性分布式数据集)每次被引用时被重复计算带来的时间和空间上不必要的损失。区别:Cachingcache机制保证了需要访问重复数据的应用(如迭代型算法和交互式应用)可以运行的更快。有多种级别的持久化策略让开发者选择,使开发者能够对空间和计算成本进行权衡,同时能指定outofmemory时对rdd的操作(缓存在内存或者磁...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 187 | 评论总数: 0 | 标签:

Spark-SparkStreaming-广告点击的在线黑名单过滤

任务广告点击的在线黑名单过滤使用nc-lk9999在数据发送端口输入若干数据,比如:1375864674543Tom1375864674553Spy1375864674571Andy1375864688436Cheater1375864784240Kelvin1375864853892Steven1375864979347John代码importorg.apache.spark.SparkConf...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 405 | 评论总数: 0 | 标签:

Spark-再次分析Apache访问日志

分析日志的包自己编译下:sbtcompilesbttestsbtpackageApacheLogParser.jar对于访问日志简单分析grep等利器比较好,但是更复杂的查询就需要Spark了。代码:importcom.alvinalexander.accesslogparser._valp=newAccessLogParservallog=sc.textFile("log.small&#...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 185 | 评论总数: 0 | 标签:

Spark-项目中分析日志的核心代码

代码LogRecord类:caseclassLogRecord(clientIpAddress:String,rfc1413ClientIdentity:String,remoteUser:String,`dateTime:String,//[day/month/year:hour:minute:secondzone]request:String,httpStatusCode:String,byt...

作者:sky | 创建日期: 2016-11-15 12:03 | 浏览次数: 182 | 评论总数: 0 | 标签:

第一页 上一页 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 下一页 最后一页   共 59 页面