本站教程收集整理的这篇文章主要介绍了大数据集群中各个服务的启动与关闭,本站教程本站觉得挺不错的,现在分享给大家,也给大家做个参考。
tomcat
启动tomcat
cd /usr/tomcat/apache-tomcat-7.0.57/bin/
./startup.sh
停止tomcat
./shutdown.sh
查看tomcat日志信息
tail -200f /usr/tomcat/apache-tomcat-7.0.57/logs/catalina.out
Nginx
启动并访问Nginx
# 1. 进入到Nginx 安装目录
cd /usr/local/Nginx/
# 2. 进入到 sbin目录,执行 Nginx 命令
cd sbin/
./Nginx 启动
./Nginx -s stop 关闭
./Nginx -s reload 重启
./Nginx -s reload 重新加载配置文件
ps aux | grep Nginx 查看进程
hadoop
非高可用集群
hadoop01节点启动hdfs,启动命令如下:
# 配置了环境变量
# 启动命令
start-dfs.sh
# 关闭命令
stop-dfs.sh
hadoop03启动yarn,启动命令如下:
# 配置了环境变量
# 启动命令
start-yarn.sh
# 关闭命令
stop-yarn.sh
启动历史服务器
@H_291_7@mr-jobhistory-daemon.sh start historyserver
@H_260_62@mysqL
@H_225_2@mysqL安装在hadoop03节点,是开机自动启动的。如果需要手动启动,命令如下:
# 查看MysqL服务状态
systemctl status MysqLd
# 启动MysqL
systemctl start MysqLd
# 关闭MysqL
systemctl staop MysqLd
用户名和密码
hive 12345678
root 12345678
hive
hive的log默认存放在 /tmp/root 目录下
在hadoop03节点开启元数据服务,命令如下:
nohup hive --service metastore &
然后在hadoop02节点启动hive客户端,命令如下:
# 配置了环境变量
hive
flume
启动命令
flume-ng agent --conf conf --conf-file /home/hadoop/app/flume/conf/test_intereptor_01 --name a1 -Dflume.root.logger=INFO,console
# --conf:配置文件所在位置
# --conf-file:定义source,chAnnel,sink的agent配置文件所在位置
# --name:定义的agent名字
zookeeper
在hadoop01节点的/root/sHells/
目录下执行脚本,群起zookeeper集群,命令如下:
# 启动zookeeper
sh zk.sh start
# 查看zookeeper状态
sh zk.sh status
# 关闭zookeeper
sh zk.sh stop
进入sHell客户端
进入到zookeeper安装目录,cd /opt/lagou/servers/zookeeper-3.4.14/bin
,执行命令./zkCli.sh 便宜美国vps
数据存放目录:dataDir=/opt/lagou/servers/zookeeper-3.4.14/data
hbase
主节点是hadoop01和hadoop02节点
在hadoop01节点执行启动命令,命令如下:
# 配置了环境变量
# 启动命令
start-hbase.sh
# 关闭命令
stop-hbase.sh
azkaban
hadoop01和hadoop03节点先启动exec-server,命令如下:
# /opt/lagou/servers/azkaban/azkaban-exec-server-0.1.0-SNAPSHOT目录下
# 启动
bin/start-exec.sh
# 关闭
bin/shutdown-exec.sh
hadoop02节点再启动web-server,命令如下:
# /opt/lagou/servers/azkaban/azkaban-web-server-0.1.0-SNAPSHOT目录下
# 启动
bin/start-web.sh
# 关闭
bin/shutdown-web.sh
redis
hadoop01节点启动,启动命令如下:
# /usr/redis/bin 目录下
# 后台启动
./redis-server redis.conf
# 后台关闭
./redis-cli shutdown
打开客户端
./redis-cli
kafka
单机kafka
hadoop01节点启动,进入kafka安装目录/opt/lagou/servers/kafka_2.12-1.0.2/
,启动命令如下:
# 配置了环境变量
kafka-server-start.sh ./config/server.properties
kafka日志存放目录
/var/lagou/kafka/kafka-logs
本站总结
以上是本站教程为你收集整理的大数据集群中各个服务的启动与关闭全部内容,希望文章能够帮你解决大数据集群中各个服务的启动与关闭所遇到的程序开发问题。
如果觉得本站教程网站内容还不错,欢迎将本站教程推荐给好友。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。