CentOS大数据集群启停命令【mysql,hdfs,yarn,hive,zookeeper,kafka】后续补充

发布于:2024-05-17 ⋅ 阅读:(103) ⋅ 点赞:(0)

 本文暂时收录大数据相关的mysql,hdfs,yarn,hive,zookeeper,kafka的启停命令,后续会持续添加。(默认配置都已经完成)

mysql:
本地启动:

mysql -uroot -p

远程启动:

mysql -uroot -p -h ip地址

 关闭:

exit     #或者Ctrl + d

hdfs:
启动:

start-dfs.sh

关闭:

stop-dfs.sh

yarn:
启动:

start-yarn.sh

关闭:

stop-yarn.sh

hive:
启动historyserver(历史服务器):

mapred --daemon start historyserver。

进入hive的安装目录:

cd /export/server/hive         #填你们自己的hive安装路径

后台启动metastore(元数据管理服务):

nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &   

 注意标红的地方,可能与你的不一样,注意用自己的 。

 此处的一些解释:将所有的日志转存到logs文件夹里面的metastore.log;  nohup  后台运行

 后台启动hiveserver服务:

nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &

 启动Beeline客户端:

bin/beeline       #     /export/server/hive

进入Beeline客户端后,通过Beeline客户端连接hiveserver: 

 ! connect jdbc:hive2://node1:10000       #node1主机名映射,用ip地址也行

输入启动hive的用户名

有密码输入密码 

 启动hive内置客户端(内置SQL解析器):

bin/hive           #     /export/server/hive

关闭:

exit 

zookeeper:
启动:

/export/server/zookeeper/bin/zkServer.sh start          #注意路径

关闭: 

/export/server/zookeeper/bin/zkServer.sh stop          #注意路径

kafka:
启动:

注意:请先确保Zookeeper已经启动了

方式1:【前台启动】分别在node1、2、3上执行如下语句( 注意路径)

/export/server/kafka/bin/kafka-server-start.sh /export/server/kafka/config/server.properties

方式2:【后台启动】分别在node1、2、3上执行如下语句

nohup /export/server/kafka/bin/kafka-server-start.sh /export/server/kafka/config/server.properties 2>&1 >> /export/server/kafka/kafka-server.log &   

关闭:

/export/server/kafka/bin/kafka-server-stop.sh          #注意路径


网站公告

今日签到

点亮在社区的每一天
去签到