windows 系统部署hadoop和spark(完整全面版本)_windows端搭建hadoop hbase hive spark
前提系统已经安装jdk
选型版本
1:seala:2.13.16
2: hadoop:2.10.2
3: spark:2.4.7
4: winutils
1:下载
seala 地址: Scala 2.13.16 | The Scala Programming Language
hadoop地址:Index of /hadoop/common
spark地址:Apache Archive Distribution Directory
winutils:winutils/hadoop-2.9.2 at master · cdarlint/winutils · GitHub

![]()

2:安装
1:scala安装
一直点下一步完成后验证 : 打开命令行 输入 scala -version
安装成功

2:hadoop安装
解压hadoop压缩包后创建data文件夹下再创建三个datanode,namenode,tmp


1:配置环境变量
![]()

2:配置
修改etc目录
\\etc\\hadoop\\core-site.xml
     
         hadoop.tmp.dir
         D:\\software\\hadoop-2.10.2\\data\\tmp
     
     
         fs.defaultFS
         hdfs://127.0.0.1:9000
      
\\etc\\hadoop\\hdfs-site.xml
     
     
         dfs.replication
         1
     
     
         dfs.namenode.name.dir
         D:\\software\\hadoop-2.10.2\\data\\namenode
     
     
         dfs.datanode.data.dir
         D:\\software\\hadoop-2.10.2\\data\\datanode
      
\\etc\\hadoop\\mapred-site.xml
     
        mapreduce.framework.name
        yarn
     
     
        mapred.job.tracker
        hdfs://localhost:9001
      
\\etc\\hadoop\\yarn-site.xml
     
         yarn.nodemanager.aux-services
         mapreduce_shuffle
     
     
         yarn.nodemanager.aux-services.mapreduce.shuffle.class
         org.apache.hahoop.mapred.ShuffleHandler
      
3:替换bin
把winutils下的bin替换成hadoop-2.10.2\\bin


4:启动
执行sbin目录下start-all.cmd

4:验证
http://127.0.0.1:50070/
http://127.0.0.1:8088/


3:安装spark
1:解压文件

2:配置环境变量

3:启动
命令行输入:spark-shell

4:验证
http://127.0.0.1:4040/



