HA集群的启动命令(离线-实时数仓)
1.zk启动
脚本:zk.sh start
三台集群命令:bin/zkServer.sh start
查看状态:bin/zkServer.sh status
启动客户端:bin/zkCli.sh
2.hadoop集群 (启动Hadoop-HA)
1).在三台节点:JournalNode节点上,输入以下命令启动journalnode服务 :
hdfs --daemon start journalnode
2).在hadoop102[nn1]上,对其进行格式化,并启动(第一次格式化Namenode)
格式化:hdfs namenode -format
开启nn1:hdfs --daemon start namenode
3)在hadoop103[nn2]上,同步nn1的元数据信息
hdfs namenode -bootstrapStandby
4)启动[nn2]
hdfs --daemon start namenode
5)格式化zkfc
hdfs zkfc -formatZK
6)在所有nn节点启动zkfc(含有namenode节点 01 ,02)
hdfs --daemon start zkfc
7)在所有节点上,启动datanode(2台节点)
hdfs --daemon start datanode
8)第二次启动可以在NameNode所在节点执行start-dfs.sh启动HDFS所有进程
start-dfs.sh
stop-dfs.sh
9)在ResourceMamager所在节点执行start-yarn.sh 启动yarn所有进程
start-yarn.sh
stop-yarn.sh
10)部署完成可以通过start-all.sh和stop-all.sh控制Hadoop-HA所有节点的启停
start-all.sh
stop-all.sh
2.1. Hadoop群起脚本
vim hdp.sh
#!/bin/bash
if [ $# -lt 1 ]
then
echo "No Args Input..."
exit ;
fi
case $1 in
"start")
echo " =================== 启动 hadoop集群 ==================="
echo " --------------- 启动 hdfs 和 yarn ---------------"
ssh hadoop102 "/opt/module/hadoop/sbin/start-all.sh"
echo " --------------- 启动 historyserver ---------------"
ssh hadoop102 "/opt/module/hadoop/bin/mapred --daemon start historyserver"
;;
"stop")
echo " =================== 关闭 hadoop集群 ==================="
echo " --------------- 关闭 historyserver ---------------"
ssh hadoop102 "/opt/module/hadoop/bin/mapred --daemon stop historyserver"
echo " --------------- 关闭 hdfs 和 yarn ---------------"
ssh hadoop102 "/opt/module/hadoop/sbin/stop-all.sh"
;;
*)
echo "Input Args Error..."
;;
esac
3.kafka启动
(1)先启动Zookeeper集群,然后启动Kafka。
zk.sh start
(2)依次在hadoop102、hadoop103、hadoop104节点上启动Kafka。
bin/kafka-server-start.sh -daemon
(3)依次在hadoop102、hadoop103、hadoop104节点上停止Kafka.
bin/kafka-server-stop.sh
3.1 Kafka命令行操作
1)查看操作主题命令参数:bin/kafka-topics.sh
2)查看当前服务器中的所有topic:bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --list
3)创建first topic:bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --create --partitions 1 --replication-factor 3 --topic first
4)查看first主题的详情: bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe --topic first
5)修改分区数(注意:分区数只能增加,不能减少):bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --alter --topic first --partitions 3
6)再次查看first主题的详情:bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe --topic first
7)删除topic(学生自己演示):bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --delete --topic first
3.2 生产者命令行操作
1)查看操作生产者命令参数:bin/kafka-console-producer.sh
2)发送消息:bin/kafka-console-producer.sh --bootstrap-server hadoop102:9092 --topic first
3.3 消费者命令行操作
1)查看操作消费者命令参数:bin/kafka-console-consumer.sh
2)消费消息
(1)消费first主题中的数据:
bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first
(2)把主题中所有的数据都读取出来(包括历史数据)
bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --from-beginning --topic first
4. Flume启动
5.MySQL启动
(1)卸载MySQL依赖,虽然机器上没有装MySQL,但是这一步不可少
sudo yum remove mysql-libs
(2)下载依赖并安装
sudo yum install libaio
sudo yum -y install autoconf
2)切换到hadoop102的root用户
3)执行/opt/software/mysql/目录下install_mysql.sh
vim install_mysql.sh
#!/bin/bash
set -x
[ "$(whoami)" = "root" ] || exit 1
[ "$(ls *.rpm | wc -l)" = "7" ] || exit 1
test -f mysql-community-client-8.0.31-1.el7.x86_64.rpm && \
test -f mysql-community-client-plugins-8.0.31-1.el7.x86_64.rpm && \
test -f mysql-community-common-8.0.31-1.el7.x86_64.rpm && \
test -f mysql-community-icu-data-files-8.0.31-1.el7.x86_64.rpm && \
test -f mysql-community-libs-8.0.31-1.el7.x86_64.rpm && \
test -f mysql-community-libs-compat-8.0.31-1.el7.x86_64.rpm && \
test -f mysql-community-server-8.0.31-1.el7.x86_64.rpm || exit 1
# 卸载MySQL
systemctl stop mysql mysqld 2>/dev/null
rpm -qa | grep -i 'mysql\|mariadb' | xargs -n1 rpm -e --nodeps 2>/dev/null
rm -rf /var/lib/mysql /var/log/mysqld.log /usr/lib64/mysql /etc/my.cnf /usr/my.cnf
set -e
# 安装并启动MySQL
yum install -y *.rpm >/dev/null 2>&1
systemctl start mysqld
#更改密码级别并重启MySQL
sed -i '/\[mysqld\]/avalidate_password.length=4\nvalidate_password.policy=0' /etc/my.cnf
systemctl restart mysqld
# 更改MySQL配置
tpass=$(cat /var/log/mysqld.log | grep "temporary password" | awk '{print $NF}')
cat << EOF | mysql -uroot -p"${tpass}" --connect-expired-password >/dev/null 2>&1
set password='000000';
update mysql.user set host='%' where user='root';
alter user 'root'@'%' identified with mysql_native_password by '000000';
flush privileges;
EOF
执行脚本:sh install_mysql.sh
6.数据采集
1)启动Zookeeper、Kafka集群
2)启动hadoop102的日志采集Flume
[atguigu@hadoop102 flume]$ bin/flume-ng agent -n a1 -c conf/ -f job/file_to_kafka.conf
3)启动一个Kafka的Console-Consumer
[atguigu@hadoop102 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic car_data
4)生成数据
执行集群日志生成脚本。
[atguigu@hadoop102 ~]$ lg.sh 2023-05-03
5)观察Kafka消费者是否能消费到数据
6. Hive启动
1)登陆MySQL
2)启动Hive客户端
hive
3)连接DBeaver或者DataGrip,用到JDBC协议连接到Hive,故需要启动HiveServer2。
启动HiveServer2:hiveserver2
host:ip地址 或者主机号 port:10000
7.DolphinScheduler
1)启动DolphinScheduler
先启整个集群:bin/start-all.sh
2)启动DolphinScheduler命令:bin/dolphinscheduler-daemon.sh start standalone-server
8. FineBI(未更)
9.Flink(YARN模式)
1).先动Hadoop集群,包括HDFS和YARN
(2)执行脚本命令向YARN集群申请资源,开启一个YARN会话,启动Flink集群。
启动flink集群: bin/yarn-session.sh
10.HBase
1).首先Zookeeper正常启动(集群:zk.sh)
三台节点:bin/zkServer.sh star
2). Hadoop正常启动(集群:hdp.sh)
单节点:102:sbin/start-dfs.sh
单节点:103:sbin/start-yarn.sh
3).HBase服务的启动
单点启动master和regionserver
[atguigu@hadoop102 hbase]$ bin/hbase-daemon.sh start master
[atguigu@hadoop102 hbase]$ bin/hbase-daemon.sh start regionserver
4).群启
[atguigu@hadoop102 hbase]$ bin/start-hbase.sh
对应的停止服务:
[atguigu@hadoop102 hbase]$ bin/stop-hbase.sh
查看HBase页面:http://hadoop102:16010
11.Redis
11.1Redis启动:redis-server ./my_redis.conf
过滤下是否启动成功:ps -ef | grep redis
atguigu 26373 1 0 11:34 ? 00:00:00 redis-server 127.0.0.1:6379
atguigu 26384 26303 0 11:35 pts/0 00:00:00 grep --color=auto redis
11.2 用客户端访问(写sql): redis-cli
11.3Redis关闭:
单实例关闭:redis-cli shutdown
进入终端后再关闭:
[atguigu@hadoop102 ~]$ redis-cli
127.0.0.1:6379> shutdown
not connected>
多实例关闭,指定端口关闭:redis-server ./my_redis.conf
redis-cli -p 6379 shutdown
12.Docker
1).启动 docker
13.Doris
原文地址:https://blog.csdn.net/2301_77257988/article/details/136358959
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!