linux-大数据常用命令

news/2025/1/14 11:06:12/文章来源:https://www.cnblogs.com/hanease/p/18670382

1. vi/vim
一般模式
语法 功能描述
yy 复制光标当前一行
y数字y 复制一段(从第几行到第几行)
p 箭头移动到目的行粘贴
u 撤销上一步
dd 删除光标当前行
d数字d 删除光标(含)后多少行
x 删除一个字母,相当于del
X 删除一个字母,相当于Backspace
yw 复制一个词
dw 删除一个词
shift+^ 移动到行头
shift+$ 移动到行尾
1+shift+g 移动到页头,数字
shift+g 移动到页尾
数字N+shift+g 移动到目标行
编辑模式
按键 功能
i 当前光标前
a 当前光标后
o 当前光标行的下一行
I 光标所在行最前
A 光标所在行最后
O 当前光标行的上一行
指令模式
命令 功能
:w 保存
:q 退出
:! 强制执行
/要查找的词 n 查找下一个,N 往上查找
? 要查找的词 n是查找上一个,shift+n是往下查找
:set nu 显示行号
:set nonu 关闭行号
————————————————

2. RPM
RPM查询命令:rpm -qa |grep firefox

RPM卸载命令:

rpm -e xxxxxx

rpm -e --nodeps xxxxxx(不检查依赖)

RPM安装命令:

rpm -ivh xxxxxx.rpm

rpm -ivh --nodeps fxxxxxx.rpm(–nodeps,不检测依赖进度)

选项 功能
-i -i=install,安装
-v -v=verbose,显示详细信息
-h -h=hash,进度条
–nodeps –nodeps,不检测依赖进度
————————————————

3. 登录与注销
命令 描述
sudo useradd lilei 添加用户 (不能被立即使用,需设置密码 sudo passwd lilei)
sudo adduser lilei 添加用户
login 登录或切换用户
logout 注销用户(命令行) exit(shell-退出控制台)
shutdown -h 10 10分钟后自动关机 shutdown -c //取消
halt(root用户) 关闭所有进程后自动关机
poweroff 同上
shutdown -r 10 十分钟后自动重启
init 6 重启 (0-停机,1-单用户,2-多用户,3-完全多用户,4-图形化,5-安全模式,6-重启)
reboot 重启
————————————————

4. 目录与文件
命令 描述
cat > myfile 创建文件并编辑内容(ctrl+D结束编辑)
cat -n myfile 查看文件
chmod [u/g/o/a][+/-/=][r/w/x] myfile 更改文件权限 u-user,g-group,o-others,a-all . ±添加,–删除,=-重置 .r-read读(4),w-write写(2),x-execute执行(1)
more myfile 分页往后显示文件(Space空格)
less myfile 分页自由显示文件(Page Down / Page Up)
head (-10) myfile 指定显示文件前若干行(默认前10)
tail (-10) myfile 指定显示文件后若干行(默认后10)
————————————————

5. 文件内容处理
命令 描述
sort myfile 对文件内容进行排序
sort -r myfile 逆序
uniq myfile 检查文件中的重复内容
grep (-c)‘a’ myfile 在文件中查找指定内容 (显示行号)
diff myfile01 myfile02 对不同文件进行比较
diff3 myfile01 myfile02 myfile03 三个文件
sdiff myfile01 myfile02 合并
cmp myfile01 myfile02 通过字节对不同文件进行比较
omm myfile01 myfile02 对有序文件进行比较
cut -b(-c)(-d) 2(3) myfile 对文件内容进行剪切
paste myfile02 myfile01 对文件内容进行粘贴 02-)01
wc (-参数) myfile 对文件内容进行统计 (c-字符数,w-单词数,l-行数)
————————————————

6. 文件搜索
命令 描述
find / -name file1 从 ‘/’ 开始进入根文件系统搜索文件和目录
find / -user user1 搜索属于用户 ‘user1’ 的文件和目录
find /home/user1 -name *.bin 在目录 ‘/ home/user1’ 中搜索带有’.bin’ 结尾的文件
find /usr/bin -type f -atime +100 搜索在过去100天内未被使用过的执行文件
find /usr/bin -type f -mtime -10 搜索在10天内被创建或者修改过的文件
find / -name *.rpm -exec chmod 755 ‘{}’ 搜索以 ‘.rpm’ 结尾的文件并定义其权限 ^
find /tmp -name *.hprof -exec rm -f {} 批量删除java堆栈.hprof文件
find / -xdev -name *.rpm 搜索以 ‘.rpm’ 结尾的文件,忽略光驱、捷盘等可移动设备
locate *.ps 寻找以 ‘.ps’ 结尾的文件 - 先运行 ‘updatedb’ 命令
whereis halt 显示一个二进制文件、源码或man的位置
which halt 显示一个二进制文件或可执行文件的完整路径
grep -rn “query_string” * Linux目录下全局查找所有文件中是否包含指定字符串(-r:递归;-n:显示行号)
————————————————

7. 压缩
命令 描述
zip myfile.zip myfile 压缩
zip -d myfile.zip myfile 添加
zip -m myfile.zip myfile 删除
unzip -o myfile.zip 解压(覆盖)
unzip -n myfile.zip 解压(不覆盖)
zipinfo myfile.zip 列出压缩文件信息
————————————————

8. 磁盘空间

命令描述
df -h 显示已经挂载的分区列表
ls -lSr |more 以尺寸大小排列文件和目录
du -sh dir1 估算目录 ‘dir1’ 已经使用的磁盘空间’
du -sk * | sort -rn 以容量大小为依据依次显示文件和目录的大小
————————————————

9. 系统负载

命令描述
top -d 20 -p 1303 将进程号1303的系统负载,每隔20秒刷新一次
top -d 20 -n 3 -b > test.txt 每隔20秒,一共执行3次, 将统计结果导入到test.txt文件中。
————————————————

Shell
输入/输出重定向
命令 功能说明
command > file 将输出重定向到 file
command < file 将输入重定向到 file
command >> file 将输出以追加的方式重定向到 file
n > file 将文件描述符为 n 的文件重定向到 file
n >> file 将文件描述符为 n 的文件以追加的方式重定向到 file
n >& m 将输出文件 m 和 n 合并
n <& m 将输入文件 m 和 n 合并
<< tag 将开始标记 tag 和结束标记 tag 之间的内容作为输入
————————————————

脚本编辑

快捷方式功能说明
shift 参数左移
$@ 所有的参数
$# 参数的个数
————————————————

Git
基本命令
命令 说明
git init 初始化仓库
git clone 拷贝一份远程仓库,也就是下载一个项目
git add 添加文件到暂存区
git status 查看仓库当前的状态,显示有变更的文件
git diff 比较文件的不同,即暂存区和工作区的差异
git commit 提交暂存区到本地仓库
git reset 回退版本
git rm 删除工作区文件
git mv 移动或重命名工作区文件
git log 查看历史提交记录
git blame 以列表形式查看指定文件的历史修改记录
git remote 远程仓库操作
git fetch 从远程获取代码库
git pull 下载远程代码并合并
git push 上传远程代码并合并
分支管理命令
命令 说明
git branch 列出分支
git branch (branchname) 创建分支命令
git branch -d (branchname) 删除分支
git checkout (branchname) 切换分支
git merge 合并分支
————————————————

Hadoop

————————————————

启动类命令
功能说明 命令脚本
启动hdfs集群 sbin/start-dfs.sh
启动yarn sbin/start-yarn.sh
hadoop fs/hdfs dfs 命令
功能说明 命令
创建目录 hdfs dfs -mkdir -p /data/flink
显示目录 hdfs dfs -ls /
从HDFS拷贝到本地 hdfs dfs -copyToLocal /data/data.txt ./
文件上传到集群(从本地) hhdfs dfs -copyFromLocal data.txt /
文件下载 hdfs dfs -get /data/flink
删除集群的文件 hdfs dfs -rm /data/flink
删除文件夹 hdfs dfs -rm -r -skipTrash /data
从本地剪切粘贴到HDFS hdfs dfs -moveFromLocal data.txt /data/
追加一个文件到已经存在的文件末尾hdfs dfs -appendToFile data1.txt /data/data.txt
显示文件内容 hdfs dfs -cat data.txt
修改文件所属权限 hdfs dfs -chmod 777 xxx.sh
修改文件所属用户组 hdfs dfs -chown root:root data.txt
从HDFS的一个路径拷贝到HDFS的另一个路径 hdfs dfs -cp data.txt /data1.txt
在HDFS目录中移动文件 hdfs dfs -mv data.txt /opt/
合并下载多个文件 hdfs dfs -getmerge /data/* ./data_merge.txt
hadoop fs -put 等同于copyFromLocal
显示一个文件的末尾 hdfs dfs -tail data.txt
删除文件或文件夹 hdfs dfs -rm /data/data.txt
删除空目录 hdfs dfs -rmdir /data
统计文件夹的大小信息 hdfs dfs -s -h /data
统计文件夹下的文件大小信息 hdfs dfs -h /data
设置HDFS中文件的副本数量 hdfs dfs -setrep 3 /data/data.txt
yarn命令
功能说明 命令
查看正在运行的yarn任务列表 yarn application -list appID
kill掉指定id的yarn任务 yarn application -kill appID
查看任务日志信息 yarn logs -applicationId appID
————————————————

Zookeeper
启动命令
功能说明 命令脚本
启动zookeeper服务 zkServer.sh start
查看zookeeper状态 zkServer.sh status
停止zookeeper服务 zkServer.sh stop
启动zookeeper客户端 zkCli.sh -server 127.0.0.1:2181
退出zookeeper客户端 quit
基本操作
功能说明 命令脚本
当前znode中所包含的内容 ls /
创建普通节点(前面是节点的路径,后面是值) create /bigdata/flink “flink”
获取节点的值 get /bigdata
修改节点的值 set /bigdata/flink “flinksql”
删除节点 delete /bigdata/flink
递归删除节点 rmr /bigdata
四字母命令
命令 功能说明 例子
conf zk服务配置的详细信息 echo conf | nc 127.0.0.1 2181
stat 客户端与zk连接的简要信息 参考上面
srvr zk服务的详细信息 参考上面
cons 客户端与zk连接的详细信息 参考上面
mntr zk服务目前的性能状况 参考上面
crst 重置当前的所有连接、会话 参考上面
dump 列出未经处理的会话和连接信息 参考上面
envi 列出zk的版本信息、主机名称、Java版本、服务器名称等等 参考上面
ruok 测试服务器是否正在运行,如果在运行返回imok,否则返回空 参考上面
srst 重置Zookeeper的所有统计信息 参考上面
wchs 列出watch的总数,连接数 参考上面
wchp 列出所有watch的路径及sessionID 参考上面
mntr 列出集群的关键性能数据,包括zk的版本、node数量、临时节点数等等 参考上面
————————————————

Kafka
注: 这里机器我只写一个。命令你们也可使用 ./bin/xx.sh (如:./bin/kafka-topics.sh)

查看当前服务器中的所有topic
kafka-topics --zookeeper xxxxxx:2181 --list --exclude-internal

说明:

exclude-internal:排除kafka内部topic

比如: --exclude-internal --topic "test_.*"
创建topic
kafka-topics --zookeeper xxxxxx:2181 --create
--replication-factor
--partitions 1
--topic topic_name

说明:

--topic 定义topic名

--replication-factor 定义副本数

--partitions 定义分区数
删除topic
注意: 需要server.properties中设置delete.topic.enable=true否则只是标记删除

kafka-topics --zookeeper xxxxxx:2181 --delete --topic topic_name
生产者
kafka-console-producer --broker-list xxxxxx:9092 --topic topic_name

可加:--property parse.key=true(有key消息)
消费者
kafka-console-consumer --bootstrap-server xxxxxx:9092 --topic topic_name

注:可选

--from-beginning:会把主题中以往所有的数据都读取出来

--whitelist '.*' :消费所有的topic

--property print.key=true:显示key进行消费

--partition 0:指定分区消费

--offset:指定起始偏移量消费
查看某个Topic的详情
kafka-topics --zookeeper xxxxxx:2181 --describe --topic topic_name
修改分区数
kafka-topics --zookeeper xxxxxx:2181 --alter --topic topic_name --partitions 6
查看某个消费者组信息
kafka-consumer-groups --bootstrap-server xxxxxx:9092 --describe --group group_name
删除消费者组
kafka-consumer-groups --bootstrap-server xxxxxx:9092 ---delete --group group_name
重置offset
kafka-consumer-groups --bootstrap-server xxxxxx:9092 --group group_name

--reset-offsets --all-topics --to-latest --execute
leader重新选举
指定Topic指定分区用重新PREFERRED:优先副本策略 进行Leader重选举

kafka-leader-election --bootstrap-server xxxxxx:9092
--topic topic_name --election-type PREFERRED --partition 0
所有Topic所有分区用重新PREFERRED:优先副本策略 进行Leader重选举

kafka-leader-election --bootstrap-server xxxxxx:9092
--election-type preferred --all-topic-partitions
查询kafka版本信息
kafka-configs --bootstrap-server xxxxxx:9092 --describe --version
增删改配置
功能说明 参数
选择类型 –entity-type (topics/clients/users/brokers/broker- loggers)
类型名称 –entity-name
删除配置 –delete-config k1=v1,k2=v2
添加/修改配置 –add-config k1,k2
topic添加/修改动态配置

kafka-configs --bootstrap-server xxxxxx:9092
--alter --entity-type topics --entity-name topic_name
--add-config file.delete.delay.ms=222222,retention.ms=999999
topic删除动态配置

kafka-configs --bootstrap-server xxxxxx:9092
--alter --entity-type topics --entity-name topic_name
--delete-config file.delete.delay.ms,retention.ms
持续批量拉取消息
单次最大消费10条消息(不加参数意为持续消费)

kafka-verifiable-consumer --bootstrap-server xxxxxx:9092
--group group_name
--topic topic_name --max-messages 10
删除指定分区的消息
删除指定topic的某个分区的消息删除至offset为1024

json文件offset-json-file.json

{
"partitions": [
{
"topic": "topic_name",
"partition": 0,
"offset": 1024
}
],
"version": 1
}
kafka-delete-records --bootstrap-server xxxxxx:9092
--offset-json-file offset-json-file.json
查看Broker磁盘信息
查询指定topic磁盘信息

kafka-log-dirs --bootstrap-server xxxxxx:9090
--describe --topic-list topic1,topic2
查询指定Broker磁盘信息

kafka-log-dirs --bootstrap-server xxxxxx:9090
--describe --topic-list topic1 --broker-list 0
————————————————

Hive

启动类
功能说明 命令
启动hiveserver2服务 bin/hiveserver2
启动beeline bin/beeline
连接hiveserver2 beeline> !connect jdbc:hive2://hadoop102:10000
metastroe服务 bin/hive --service metastore
hive 启动元数据服务(metastore和hiveserver2)和优雅关闭脚本

启动: hive.sh start
关闭: hive.sh stop
重启: hive.sh restart
状态: hive.sh status
1
2
3
4
脚本如下

#!/bin/bash
HIVE_LOG_DIR=$HIVE_HOME/logs

mkdir -p $HIVE_LOG_DIR

#检查进程是否运行正常,参数1为进程名,参数2为进程端口
function check_process()
{
pid=$(ps -ef 2>/dev/null | grep -v grep | grep -i $1 | awk '{print $2}')
ppid=$(netstat -nltp 2>/dev/null | grep $2 | awk '{print $7}' | cut -d '/' -f 1)
echo $pid
[[ "$pid" =~ "$ppid" ]] && [ "$ppid" ] && return 0 || return 1
}

function hive_start()
{
metapid=$(check_process HiveMetastore 9083)
cmd="nohup hive --service metastore >$HIVE_LOG_DIR/metastore.log 2>&1 &"
cmd=$cmd" sleep4; hdfs dfsadmin -safemode wait >/dev/null 2>&1"
[ -z "$metapid" ] && eval $cmd || echo "Metastroe服务已启动"
server2pid=$(check_process HiveServer2 10000)
cmd="nohup hive --service hiveserver2 >$HIVE_LOG_DIR/hiveServer2.log 2>&1 &"
[ -z "$server2pid" ] && eval $cmd || echo "HiveServer2服务已启动"
}

function hive_stop()
{
metapid=$(check_process HiveMetastore 9083)
[ "$metapid" ] && kill $metapid || echo "Metastore服务未启动"
server2pid=$(check_process HiveServer2 10000)
[ "$server2pid" ] && kill $server2pid || echo "HiveServer2服务未启动"
}

case $1 in
"start")
hive_start
;;
"stop")
hive_stop
;;
"restart")
hive_stop
sleep 2
hive_start
;;
"status")
check_process HiveMetastore 9083 >/dev/null && echo "Metastore服务运行正常" || echo "Metastore服务运行异常"
check_process HiveServer2 10000 >/dev/null && echo "HiveServer2服务运行正常" || echo "HiveServer2服务运行异常"
;;
*)
echo Invalid Args!
echo 'Usage: '$(basename $0)' start|stop|restart|status'
;;
esac

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
常用交互命令
功能说明 命令
不进入hive的交互窗口执行sql bin/hive -e “sql语句”
执行脚本中sql语句 bin/hive -f hive.sql
退出hive窗口 exit 或 quit
命令窗口中查看hdfs文件系统 dfs -ls /
命令窗口中查看hdfs文件系统 ! ls /data/h
SQL类(特殊的)
说明 语句
查看hive中的所有数据库 show databases
用default数据库 use default
查询表结构 desc table_name
查看数据库 show databases
重命名表名 alter table table1 rename to table2
修改表中字段 alter table table_name change name user_name String
修改字段类型 alter table table_name change salary salary Double
创建外部表 create external table …
查询外部表信息 desc formatted outsidetable
创建视图 create view view_name as select * from table_name …
添加数据 load data local inpath ‘xxx’ overwrite into table table_name partition(day=‘2021-12-01’)
内置函数
(1) NVL

给值为NULL的数据赋值,它的格式是NVL( value,default_value)。它的功能是如果value为NULL,则NVL函数返回default_value的值,否则返回value的值,如果两个参数都为NULL ,则返回NULL

select nvl(column, 0) from xxx;
1
(2)行转列

函数 描述
CONCAT(string A/col, string B/col…) 返回输入字符串连接后的结果,支持任意个输入字符串
CONCAT_WS(separator, str1, str2,…) 第一个参数参数间的分隔符,如果分隔符是 NULL,返回值也将为 NULL。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接的字符串之间。
COLLECT_SET(col) 将某字段的值进行去重汇总,产生array类型字段
COLLECT_LIST(col) 函数只接受基本数据类型,它的主要作用是将某字段的值进行不去重汇总,产生array类型字段。
————————————————

Redis

启动类
key
命令 功能说明
keys * 查看当前库的所有键
exists 判断某个键是否存在
type 查看键的类型
del 删除某个键
expire 为键值设置过期时间,单位秒
ttl 查看还有多久过期,-1表示永不过期,-2表示已过期
dbsize 查看当前数据库中key的数量
flushdb 清空当前库
Flushall 通杀全部库
String
命令 功能说明
get 查询对应键值
set 添加键值对
append 将给定的追加到原值的末尾
strlen 获取值的长度
setnx 只有在key 不存在时设置key的值
incr 将key中存储的数字值增1只能对数字值操作,如果为空,新增值为1
decr 将key中存储的数字值减1只能对数字之操作,如果为空,新增值为-1
incrby /decrby 步长 将key中存储的数字值增减,自定义步长
mset 同时设置一个或多个key-value对
mget 同时获取一个或多个value
msetnx 同时设置一个或多个key-value对,当且仅当所有给定的key都不存在
getrange <起始位置> <结束位置> 获得值的范围,类似java中的substring
setrange <起始位置> 用覆盖所存储的字符串值,从<起始位置>开始
setex <过期时间> 设置键值的同时,设置过去时间,单位秒
getset 以新换旧,设置了新值的同时获取旧值
List
命令 功能说明
lpush/rpush 从左边/右边插入一个或多个值。
lpop/rpop 从左边/右边吐出一个值。值在键在,值光键亡。
rpoplpush 从列表右边吐出一个值,插到列表左边
lrange 按照索引下标获得元素(从左到右)
lindex 按照索引下标获得元素(从左到右)
llen 获得列表长度
linsert before 在的后面插入 插入值
lrem 从左边删除n个value(从左到右)
Set
命令 功能说明
sadd … 将一个或多个 member 元素加入到集合 key 当中,已经存在于集合的 member 元素将被忽略。
smembers 取出该集合的所有值。
sismember 判断集合是否为含有该值,有返回1,没有返回0
scard 返回该集合的元素个数。
srem … 删除集合中的某个元素。
spop 随机从该集合中吐出一个值。
srandmember 随机从该集合中取出n个值。不会从集合中删除
sinter 返回两个集合的交集元素。
sunion 返回两个集合的并集元素。
sdiff 返回两个集合的差集元素。
Hash
命令 功能说明
hset 给集合中的 键赋值
hget 从集合 取出 value
hmset … 批量设置hash的值
hexists key 查看哈希表 key 中,给定域 field 是否存在。
hkeys 列出该hash集合的所有field
hvals 列出该hash集合的所有value
hincrby 为哈希表 key 中的域 field 的值加上增量 increment
hsetnx 将哈希表 key 中的域 field 的值设置为 value ,当且仅当域 field 不存在
zset(Sorted set)
命令 功能说明
zadd … 将一个或多个 member 元素及其 score 值加入到有序集 key 当中
zrange [WITHSCORES] 返回有序集 key 中,下标在 之间的元素带WITHSCORES,可以让分数一起和值返回到结果集。
zrangebyscore key min max [withscores] [limit offset count] 返回有序集 key 中,所有 score 值介于 min 和 max 之间(包括等于 min 或 max )的成员。有序集成员按 score 值递增(从小到大)次序排列。
zrevrangebyscore key max min [withscores] [limit offset count] 同上,改为从大到小排列。
zincrby 为元素的score加上增量
zrem 删除该集合下,指定值的元素
zcount 统计该集合,分数区间内的元素个数
zrank 返回该值在集合中的排名,从0开始。
————————————————

Flink

启动
./start-cluster.sh
1
run
./bin/flink run [OPTIONS]

./bin/flink run -m yarn-cluster -c com.wang.flink.WordCount /opt/app/WordCount.jar
1
2
3
OPTIONS 功能说明
-d detached 是否使用分离模式
-m jobmanager 指定提交的jobmanager
-yat –yarnapplicationType 设置yarn应用的类型
-yD 使用给定属性的值
-yd –yarndetached 使用yarn分离模式
-yh –yarnhelp yarn session的帮助
-yid –yarnapplicationId 挂到正在运行的yarnsession上
-yj –yarnjar Flink jar文件的路径
-yjm –yarnjobManagerMemory jobmanager的内存(单位M)
-ynl –yarnnodeLabel 指定 YARN 应用程序 YARN 节点标签
-ynm –yarnname 自定义yarn应用名称
-yq –yarnquery 显示yarn的可用资源
-yqu –yarnqueue 指定yarn队列
-ys –yarnslots 指定每个taskmanager的slots数
-yt yarnship 在指定目录中传输文件
-ytm –yarntaskManagerMemory 每个taskmanager的内存
-yz –yarnzookeeperNamespace 用来创建ha的zk子路径的命名空间
-z –zookeeperNamespace 用来创建ha的zk子路径的命名空间
-p 并行度
-yn 需要分配的YARN容器个数(=任务管理器的数量)
info
./bin/flink info [OPTIONS]
1
OPTIONS 功能说明
-c 程序进入点,主类
-p 并行度
list
./bin/flink list [OPTIONS]
1
OPTIONS 功能说明
-a –all 显示所有应用和对应的job id
-r –running 显示正在运行的应用和job id
-s –scheduled 显示调度的应用和job id
-m –jobmanager 指定连接的jobmanager
-yid –yarnapplicationId 挂到指定的yarn id对应的yarn session上
-z –zookeeperNamespace 用来创建ha的zk子路径的命名空间
stop
./bin/flink stop [OPTIONS] <Job ID>
1
OPTIONS 功能说明
-d 在采取保存点和停止管道之前,发送MAX_WATERMARK
-p savepointPath 保存点的路径 ‘xxxxx’
-m –jobmanager 指定连接的jobmanager
-yid –yarnapplicationId 挂到指定的yarn id对应的yarn session上
-z –zookeeperNamespace 用来创建ha的zk子路径的命名空间
cancel(弱化)
./bin/flink cancel [OPTIONS] <Job ID>
1
OPTIONS 功能说明
-s 使用 "stop "代替
-D 允许指定多个通用配置选项
-m 要连接的JobManager的地址
-yid –yarnapplicationId 挂到指定的yarn id对应的yarn session上
-z –zookeeperNamespace 用来创建ha的zk子路径的命名空间
savepoint
./bin/flink savepoint [OPTIONS] <Job ID>
1
OPTIONS 功能说明
-d 要处理的保存点的路径
-j Flink程序的JAR文件
-m 要连接的JobManager的地址
-yid –yarnapplicationId 挂到指定的yarn id对应的yarn session上
-z –zookeeperNamespace 用来创建ha的zk子路径的命名空间
————————————————

————————————————
————————————————
————————————————
————————————————
 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/868996.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

RN/H5多设备自适应组件库来了,高效实现鸿蒙原生应用多设备精致体验

在原生鸿蒙应用开发中,华为针对ArkUI框架推出了一整套针对多设备适配的完善能力(如“一多”能力)以及高阶组件(如分栏、边看边评等),帮助开发者轻松实现“一次开发,多端部署”。然而,当前鸿蒙生态仍存在大量用跨平台框架开发的应用,部分页面采用React Native(RN)和H…

abb焊接机器人在运行过程中所遇到的问题及解决办法

一、硬件故障电气元件故障故障表现:如继电器、开关、熔断器等失效,可能是由于这些元器件的质量、性能与工作环境等因素引起的。 解决方法:对失效或破损的元器件进行维修或更换。 线路故障故障表现:长时间工作运动可能导致连接abb机器人本体的电缆或电线发生疲劳破损。 解…

Win10上用Qemu安装LoongArch版的Deepin系统

我前面有一篇贴子写了使用Loongnix搭建开发环境(https://www.cnblogs.com/airscrat/p/17142185.html),使用的虚拟机是直接下载的龙芯团队预装的,贴子并未介绍怎么用iso镜像文件安装虚拟机系统。当前Deepin loong64 v23版本已经发布,界面也漂亮,下面就一步一步的从iso安装…

Avalonia银河麒麟系统软件运行环境安装

软件运行需要安装.NET 6.0。 安装方式如下: 电脑桌面鼠标右击“打开终端” ,输入“dotnet --version ”,查看电脑是否有.net 6.0。图1_打开终端窗口示意图 在线安装方法:(.net6.0 安装方法二选一即可) 如果没有.NET 6.0 ,将电脑连接外网,鼠标右击“打开终端”,输入下面…

安川并联机器人维修步骤讲解

一、安川机器人维修步骤 1、断电与拆卸: 确保电机处于断电状态,以避免触电危险。 拆卸YASKAWA蜘蛛手机械臂电机外壳,以便检查内部零部件。 2、内部检查: 检查内部结构是否正常,零部件是否有损坏。 对损坏的零部件进行更换,清洗内部的灰尘和杂物。 3、故障诊断: 根据…

深入解析 Spring AI 系列:解析OpenAI接口对接

今天我们将主要探讨OpenAI是如何进行接口对接的,虽然我们不打算深入细节,但会对整体流程进行一个大概的了解。后续会逐步分析其中的具体细节,大家可以耐心等待,逐步展开。好的,现在让我们开始,下面是我简单绘制的一张图示,旨在帮助大家更好地理解接下来的分析流程。Open…

赛果公布!有灵AOP平台首届编程挑战赛圆满落幕

近日,网易伏羲有灵AOP平台首届编程挑战赛顺利落下帷幕。自赛事启动以来,在短短几周的时间里,来自各地的优秀开发者们汇集于此,通过人机协作的形式,完成了多项充满创意和技术深度的任务。此次挑战赛不仅展现了参赛者的卓越编程技能,也体现了AOP(Agent Oriented Programmi…

华大HC32F4A0串口使用及printf重定向

说明: 轮询 polling方法 更改自小华HC32官方库DDL_2.2.0版本相关宏定义 /* 串口 */ #define USART_RX_PORT (GPIO_PORT_B) /* PH13: USART1_RX */ #define USART_RX_PIN (GPIO_PIN_15) #define USART_RX_GPIO_FUNC (GPIO…

HC32F4A0串口使用

说明: 轮询 polling方法 更改自HC32官方库2.2.0版本相关宏定义 /* 串口 */ #define USART_RX_PORT (GPIO_PORT_B) /* PH13: USART1_RX */ #define USART_RX_PIN (GPIO_PIN_15) #define USART_RX_GPIO_FUNC (GPIO_FUNC_33…

读量子霸权03量子的崛起

瑞利-金斯灾变揭示牛顿力学漏洞,普朗克提出量子理论颠覆传统。爱因斯坦解释光电效应,薛定谔方程成量子基石。量子纠缠等理论展现量子世界奇妙,量子计算机应运而生。1. 瑞利-金斯灾变 1.1. 也被称为紫外灾变1.1.1. 在高频条件下发射的能量应该是无限大的,而这在现实中是根本…

宠物经济与即时零售:如何把握双赢机遇?

借助板栗看板,宠物食品和用品的即时零售模式可以实现从营销目标设定、库存管理、营销活动规划、顾客互动到数据分析与反馈的全链条优化。这不仅能够提升运营效率,还能增强品牌影响力,提升顾客满意度和忠诚度。宠物即时零售是近年来随着宠物经济的蓬勃发展和即时零售模式的兴…

manim边做边学--动画联动

今天介绍Manim中的动画联动的技巧,在数学动画中,动画联动是常用的功能, 比如讲解平面几何中三角形与圆的位置关系变化,通过动画联动可以让圆沿着三角形的边滚动,或者让三角形的顶点在圆上移动,从而直观地展示内切、外接等几何关系。 总之,通过动画联动,可以将复杂的概念…