> 技术文档 > windows 系统部署hadoop和spark(完整全面版本)_windows端搭建hadoop hbase hive spark

windows 系统部署hadoop和spark(完整全面版本)_windows端搭建hadoop hbase hive spark

前提系统已经安装jdk

选型版本

1:seala:2.13.16

2:  hadoop:2.10.2

3:  spark:2.4.7

4: winutils

1:下载

seala 地址: Scala 2.13.16 | The Scala Programming Language

hadoop地址:Index of /hadoop/common

spark地址:Apache Archive Distribution Directory

winutils:winutils/hadoop-2.9.2 at master · cdarlint/winutils · GitHub

2:安装

1:scala安装

一直点下一步完成后验证 : 打开命令行 输入   scala -version

安装成功

2:hadoop安装

解压hadoop压缩包后创建data文件夹下再创建三个datanode,namenode,tmp

1:配置环境变量

2:配置

    修改etc目录

\\etc\\hadoop\\core-site.xml

   
        hadoop.tmp.dir
        D:\\software\\hadoop-2.10.2\\data\\tmp
   
   
        fs.defaultFS
        hdfs://127.0.0.1:9000
   

 \\etc\\hadoop\\hdfs-site.xml

   
   
        dfs.replication
        1
   
   
        dfs.namenode.name.dir
        D:\\software\\hadoop-2.10.2\\data\\namenode
   
   
        dfs.datanode.data.dir
        D:\\software\\hadoop-2.10.2\\data\\datanode
   

\\etc\\hadoop\\mapred-site.xml

   
       mapreduce.framework.name
       yarn
   
   
       mapred.job.tracker
       hdfs://localhost:9001
   

\\etc\\hadoop\\yarn-site.xml

   
        yarn.nodemanager.aux-services
        mapreduce_shuffle
   
   
        yarn.nodemanager.aux-services.mapreduce.shuffle.class
        org.apache.hahoop.mapred.ShuffleHandler
   

3:替换bin

把winutils下的bin替换成hadoop-2.10.2\\bin

4:启动

执行sbin目录下start-all.cmd

4:验证

http://127.0.0.1:50070/

http://127.0.0.1:8088/

3:安装spark

1:解压文件

2:配置环境变量

3:启动

命令行输入:spark-shell

4:验证

http://127.0.0.1:4040/