Spark能运行Python吗?spark怎么运行Python

Spark能运行Python,spark的全名叫做Apache Spark 。是专为大规模数据处理而设计的快速通用的计算引擎,具有执行速度快和易用性等等特点 。本篇文章要来讲的内容就是如何使用spark去运行python,感兴趣的小伙伴们千万别错过了哦 。

Spark能运行Python吗?spark怎么运行Python

文章插图
1.spark本质上来说是一个文件,想要使用它的话就需要先将其给下载下来 。在浏览器里面搜索spark就能够找到它的官方网站,然后直接进入这个网站里面去将其下载下来就好了 。
2.下载完成之后打开python编辑器创建一个python文件编写代码,在代码的顶部要先导入对文件和系统去进行操作的两个模块os和sys 。这两个模块导入之后找到spark的安装目录并复制,之后调用environ方法把spark引擎集成到python环境之中来 。
3.spark引入之后就要去设置一下这个程序的名称以及连接的信息了,名称可以随便去写 。但是连接信息的话就是要用到主机信息的,这里使用本地的连接就可以了 。设置完成之后调用SparkConf()方法根据这些信息去实例化连接对象,但是就可以用它去完成对数据的操作了,代码示例如下所示:
import osimport sysfrom pyspark import SparkContext, SparkConfos.environ['SPARK_HOME'] = r'/opt/moudles/spark-1.6.1'sys.path.append("/opt/moudles/spark-1.6.1/python")sys.path.append("/opt/moudles/spark-1.6.1/python/lib/py4j-0.9-src.zip")appName ="spark_1"master= "spark://hadoop01:7077" conf = SparkConf().setAppName(appName).setMaster(master)sc = SparkContext(conf=conf)data = [1, 2, 3, 4, 5]distData = sc.parallelize(data)res = distData.reduce(lambda a, b: a + b)print (res)【Spark能运行Python吗?spark怎么运行Python】代码编写完成之后将python文件保存并运行就可以看到结果是怎么样的了 。
以上就是关于“Spark能运行Python吗?spark怎么运行Python”的全部内容了,希望对你有所帮助 。

    推荐阅读