安装包版本
JDK1.8.0.232(java1.8就可以,小版本号不强求)
链接:https://pan.baidu.com/s/1ZpMEtomkT1nvY_0qTbwcjg
提取码:ei07
Hadoop2.7.7
链接:https://pan.baidu.com/s/1oL61X921-4Urd3UCwbrKKQ
提取码:9aln
Hive2.2.1
链接:https://pan.baidu.com/s/1fPkeEJSImStlcCbYnCUy4g
提取码:02hg
mysql-connector-java-5.1.46.jar
链接:https://pan.baidu.com/s/13ICebpZljlb39w9sm4O-pA
提取码:ae9a
JDK安装
下载解压,安装到非默认路径
JDK环境变量配置
配置JDK环境变量,依次点击我的电脑-属性-高级系统设置-环境变量-新建系统变量,如下图所示:
编辑系统变量Path
,添加如下图所示两个值
Hadoop安装
下载解压即可
Hadoop环境变量配置
参考JDK环境变量配置,如下图所示:
编辑系统变量Path
,添加如下图所示一个值
环境变量配置完成后打开cmd
进行测试,输入hadoop
,正常应如下所示:
修改配置文件
新建目录
新建namenode和datanode目录,新建data目录,在下面新增dfs目录,再在下面新增namenode和datannode目录
修改core-site.xml文件
文件目录E:\tools\Hadoop\hadoop-2.7.7\etc\hadoop
,将下面的代码复制到core_site.xml,并保存
1 | <configuration> |
修改hdfs-site.xml(目录和core_site一致),datanode和namenode改为自己的目录
1 | <configuration> |
修改mapred-site.xml.template文件(目录和core_site一致),修改完重命名为mapred-site.xml
1 | <configuration> |
修改yarn-site.xml文件(目录和core_site一致)
1 | <configuration> |
修改hadoop-env.cmd文件(目录和core_site一致)
其实就是设置java的目录
1 | @rem set JAVA_HOME=%JAVA_HOME% |
格式化HDFS,打开Hadoop
至此,hadoop配置基本结束,接下来就需要测试hadoop是否安装成功
格式化HDFS,打开cmd,输入hdfs namenode -format
,结果如下即为成功
切换到E:\tools\Hadoop\hadoop-2.7.7\sbin
目录,执行start-all.cmd
,会打开4个窗口即为成功
然后,输入jps
命令测试是否成功,如下图
结果测试
在E:\tools\Hadoop\hadoop-2.7.7\sbin
目录下创建新的文件,然后在http://localhost:50070/explorer.html#/
查看结果
1 | hadoop fs -mkdir /tmp |
HVIE安装
环境变量配置
参考JDK环境变量配置,如下图所示:
编辑系统变量Path
,添加如下图所示一个值
环境变量配置完成后打开cmd
进行测试,输入hive
,正常应如下所示:
文件配置
目录更改
修改目录E:\tools\hive\conf
中的4个默认的配置文件模板拷贝成新的文件名
1 | hive-default.xml.template -----> hive-site.xml |
创建新目录
创建以下几个空目录
1 | E:\tools\hive\my_hive\operation_logs_dir |
如下图所示
mysql驱动配置
将mysql-connector-java-5.1.46-bin.jar复制到E:\tools\hive\lib
目录下
如下图所示
修改hive-env.sh文件
新增以下内容,路径注意修改为自己的
1 | # Set HADOOP_HOME to point to a specific hadoop install directory |
修改hive-site.xml文件
文件内容比较多,可以直接用我的,然后替换路径和mysql的账密即可
链接:https://pan.baidu.com/s/1PqtKV8Filn7DSwmqssSlTw
提取码:12gz
按照下图所示,查找修改即可
创建数据库
配置文件完成后,创建数据库,注意字符集和排序规则的设置属性
启动hive,结果测试
启动hadoop
打开windows命令窗口,切换目录到E:\tools\Hadoop\hadoop-2.7.7\sbin
,输入命令start-dfs.cmd
并回车,启动两个窗口服务即成功
启动hive metastore
在目录E:\tools\Hadoop\hadoop-2.7.7\sbin
的命令窗口输入hive -service meatstore
,如果在hive数据库中出现如下所示众多表,则说明开启成功
上述方式启动结果如下
此外,如果要操作hive,需要使用命令hive Starting Hive Metastore Server
,进入hive操作系统
此时,可以直接执行HQL语句进行测试,例如执行create table stu(id int, name string);
,然后去
http://localhost:50070/explorer.html#/user/hive/warehouse查看结果,
如上所示,则hive在windows的安装成功。