婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > linux環境不使用hadoop安裝單機版spark的方法

linux環境不使用hadoop安裝單機版spark的方法

熱門標簽:高德地圖標注無營業執照 金融行業外呼線路 東莞人工智能電銷機器人供應商 百度地圖標注要不要錢 長沙開福怎么申請400電話 賀州市地圖標注app 江蘇電銷外呼防封系統是什么 廣州電銷機器人系統圖 智能電話機器人線路

大數據持續升溫, 不熟悉幾個大數據組件, 連裝逼的口頭禪都沒有。 最起碼, 你要會說個hadoop, hdfs, mapreduce, yarn, kafka, spark, zookeeper, neo4j吧, 這些都是裝逼的必備技能。

關于spark的詳細介紹, 網上一大堆, 搜搜便是, 下面, 我們來說單機版的spark的安裝和簡要使用。

0.  安裝jdk,  由于我的機器上之前已經有了jdk, 所以這一步我可以省掉。 jdk已經是很俗氣的老生常談了, 不多說, 用java/scala的時候可少不了。

ubuntu@VM-0-15-ubuntu:~$ java -version
openjdk version "1.8.0_151"
OpenJDK Runtime Environment (build 1.8.0_151-8u151-b12-0ubuntu0.16.04.2-b12)
OpenJDK 64-Bit Server VM (build 25.151-b12, mixed mode)
ubuntu@VM-0-15-ubuntu:~$ 

1.  你并不一定需要安裝hadoop, 只需要選擇特定的spark版本即可。你并不需要下載scala, 因為spark會默認帶上scala shell. 去spark官網下載, 在沒有hadoop的環境下, 可以選擇:spark-2.2.1-bin-hadoop2.7, 然后解壓, 如下:

ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc$ ll
total 196436
drwxrwxr-x 3 ubuntu ubuntu   4096 Feb 2 19:57 ./
drwxrwxr-x 9 ubuntu ubuntu   4096 Feb 2 19:54 ../
drwxrwxr-x 13 ubuntu ubuntu   4096 Feb 2 19:58 spark-2.2.1-bin-hadoop2.7/
-rw-r--r-- 1 ubuntu ubuntu 200934340 Feb 2 19:53 spark-2.2.1-bin-hadoop2.7.tgz

2.  spark中有python和scala版本的, 下面, 我來用scala版本的shell, 如下:

ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ bin/spark-shell 
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
18/02/02 20:12:16 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
18/02/02 20:12:16 WARN Utils: Your hostname, localhost resolves to a loopback address: 127.0.0.1; using 172.17.0.15 instead (on interface eth0)
18/02/02 20:12:16 WARN Utils: Set SPARK_LOCAL_IP if you need to bind to another address
Spark context Web UI available at http://172.17.0.15:4040
Spark context available as 'sc' (master = local[*], app id = local-1517573538209).
Spark session available as 'spark'.
Welcome to
   ____       __
   / __/__ ___ _____/ /__
  _\ \/ _ \/ _ `/ __/ '_/
  /___/ .__/\_,_/_/ /_/\_\  version 2.2.1
   /_/
Using Scala version 2.11.8 (OpenJDK 64-Bit Server VM, Java 1.8.0_151)
Type in expressions to have them evaluated.
Type :help for more information.
scala> 

來進行簡單操作:

scala> val lines = sc.textFile("README.md")
lines: org.apache.spark.rdd.RDD[String] = README.md MapPartitionsRDD[1] at textFile at <console>:24
scala> lines.count()
res0: Long = 103
scala> lines.first()
res1: String = # Apache Spark
scala> :quit
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ 
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ 
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$  
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ wc -l README.md 
103 README.md
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ head -n 1 README.md 
# Apache Spark
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ 

來看看可視化的web頁面, 在Windows上輸入:  http://ip:4040

OK,  本文僅僅是簡單的安裝, 后面我們會繼續深入介紹spark.

總結

以上就是這篇文章的全部內容了,希望本文的內容對大家的學習或者工作具有一定的參考學習價值,謝謝大家對腳本之家的支持。如果你想了解更多相關內容請查看下面相關鏈接

標簽:洛陽 松原 北京 滄州 廊坊 張家界 永州 玉樹

巨人網絡通訊聲明:本文標題《linux環境不使用hadoop安裝單機版spark的方法》,本文關鍵詞  linux,環境,不,使用,hadoop,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《linux環境不使用hadoop安裝單機版spark的方法》相關的同類信息!
  • 本頁收集關于linux環境不使用hadoop安裝單機版spark的方法的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 琼结县| 体育| 金秀| 南华县| 西吉县| 大兴区| 永修县| 仲巴县| 和平区| 大港区| 理塘县| 乐陵市| 时尚| 祁阳县| 泰州市| 门头沟区| 合肥市| 孝昌县| 红河县| 镇坪县| 沙雅县| 柯坪县| 丹棱县| 江达县| 曲麻莱县| 繁峙县| 龙山县| 互助| 昭觉县| 乌拉特中旗| 名山县| 宁安市| 两当县| 满洲里市| 大城县| 平阴县| 屯留县| 金门县| 高淳县| 南澳县| 新邵县|