欢迎光临
我们一直在努力

大数据集群中各个服务的启动与关闭

本站教程收集整理的这篇文章主要介绍了大数据集群中各个服务的启动与关闭,本站教程本站觉得挺不错的,现在分享给大家,也给大家做个参考。

tomcat

启动tomcat

cd /usr/tomcat/apache-tomcat-7.0.57/bin/
./startup.sh

停止tomcat

./shutdown.sh

查看tomcat日志信息

tail -200f /usr/tomcat/apache-tomcat-7.0.57/logs/catalina.out

Nginx

启动并访问Nginx

# 1. 进入到Nginx 安装目录
cd /usr/local/Nginx/
# 2. 进入到 sbin目录,执行 Nginx 命令
cd sbin/
./Nginx 启动
./Nginx -s stop 关闭
./Nginx -s reload 重启
./Nginx -s reload 重新加载配置文件
ps aux | grep Nginx 查看进程

hadoop

非高可用集群

hadoop01节点启动hdfs,启动命令如下:

# 配置了环境变量
# 启动命令
start-dfs.sh
# 关闭命令
stop-dfs.sh

hadoop03启动yarn,启动命令如下:

# 配置了环境变量
# 启动命令
start-yarn.sh
# 关闭命令
stop-yarn.sh

启动历史服务器

@H_291_7@mr-jobhistory-daemon.sh start historyserver

@H_260_62@mysqL

@H_225_2@mysqL安装在hadoop03节点,是开机自动启动的。如果需要手动启动,命令如下:

# 查看MysqL服务状态
systemctl status MysqLd
# 启动MysqL
systemctl start MysqLd
# 关闭MysqL
systemctl staop MysqLd

用户名和密码

hive 12345678
root 12345678

hive

hive的log默认存放在 /tmp/root 目录下

hadoop03节点开启元数据服务,命令如下:

nohup hive --service metastore &

然后在hadoop02节点启动hive客户端,命令如下:

# 配置了环境变量
hive

flume

启动命令

flume-ng agent --conf conf --conf-file /home/hadoop/app/flume/conf/test_intereptor_01  --name a1 -Dflume.root.logger=INFO,console
# --conf:配置文件所在位置
# --conf-file:定义source,chAnnel,sink的agent配置文件所在位置
# --name:定义的agent名字

zookeeper

hadoop01节点的/root/sHells/目录下执行脚本,群起zookeeper集群,命令如下:

# 启动zookeeper
sh zk.sh start 
# 查看zookeeper状态
sh zk.sh status
# 关闭zookeeper
sh zk.sh stop

进入sHell客户端

进入到zookeeper安装目录,cd /opt/lagou/servers/zookeeper-3.4.14/bin,执行命令./zkCli.sh 便宜美国vps

数据存放目录:dataDir=/opt/lagou/servers/zookeeper-3.4.14/data

hbase

主节点是hadoop01和hadoop02节点

hadoop01节点执行启动命令,命令如下:

# 配置了环境变量
# 启动命令
start-hbase.sh
# 关闭命令
stop-hbase.sh

azkaban

hadoop01和hadoop03节点先启动exec-server,命令如下:

# /opt/lagou/servers/azkaban/azkaban-exec-server-0.1.0-SNAPSHOT目录下
# 启动
bin/start-exec.sh
# 关闭
bin/shutdown-exec.sh

hadoop02节点再启动web-server,命令如下:

# /opt/lagou/servers/azkaban/azkaban-web-server-0.1.0-SNAPSHOT目录下
# 启动
bin/start-web.sh
# 关闭
bin/shutdown-web.sh

redis

hadoop01节点启动,启动命令如下:

# /usr/redis/bin 目录下
# 后台启动
./redis-server redis.conf
# 后台关闭
./redis-cli shutdown

打开客户端

./redis-cli

kafka

单机kafka

hadoop01节点启动,进入kafka安装目录/opt/lagou/servers/kafka_2.12-1.0.2/,启动命令如下:

# 配置了环境变量
kafka-server-start.sh ./config/server.properties

kafka日志存放目录

/var/lagou/kafka/kafka-logs

本站总结

以上是本站教程为你收集整理的大数据集群中各个服务的启动与关闭全部内容,希望文章能够帮你解决大数据集群中各个服务的启动与关闭所遇到的程序开发问题。

如果觉得本站教程网站内容还不错,欢迎将本站教程推荐给好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。

赞(0)
【声明】:本博客不参与任何交易,也非中介,仅记录个人感兴趣的主机测评结果和优惠活动,内容均不作直接、间接、法定、约定的保证。访问本博客请务必遵守有关互联网的相关法律、规定与规则。一旦您访问本博客,即表示您已经知晓并接受了此声明通告。