Linux 文件数据操作练习题整理(力扣)
生活加油呀,终于把我拉黑了….我也不知道为啥这么失落..,只是这终究是要面临的,希望一切都好起来..2021.04.24
生活加油呀,终于把我拉黑了….我也不知道为啥这么失落..,只是这终究是要面临的,希望一切都好起来..2021.04.24
统计某个文件的词频
1 | [root@liruilong ~]# cat words.txt | xargs -n 1 echo | sort |uniq -c | sort -n -r | awk '{print $2,$1}' |
命令解析
1 | # xarhs -n 1 每个单词逐行显示 |
xargs 命令
xargs命令的作用:是将标准输入转为命令行参数
。记忆方法 x + args
将未知数据转化为参数
1 | [root@liruilong ~]# echo "hello world" | xargs echo |
上面的代码将管道左侧的标准输入,转为命令行参数hello world,传给第二个echo命令。xargs命令
的格式如下:
1 | xargs [-options] [command] |
真正需要执行的命令,紧跟在xargs后面,接受xargs传来的参数
。
xargs的作用在于,大多数命令(比如rm、mkdir、ls)与管道一起使用时,都需要xargs将标准输入转为命令行参数。
1 | $ echo "one two three" | xargs mkdir |
xargs 的单独使用
,xargs后面的命令默认是echo
。
1 | $ xargs |
输入xargs按下回车以后,命令行就会等待用户输入,作为标准输入。你可以输入任意内容,然后按下Ctrl d,表示输入结束,这时echo命令就会把前面的输入打印出来。
1 | $ xargs |
1 | [root@liruilong ~]# ls |
上面的例子输入xargs find -name
以后,命令行会等待用户输入所要搜索的文件。用户输入”*.py”,表示搜索当前目录下的所有 py文件,然后按下Ctrl+d
,表示输入结束。这时就相当执行find -name *.py
。
-d
参数与分隔符
默认情况下,xargs将换行符和空格作为分隔符
,把标准输入分解成一个个命令行参数
。
1 | $ echo "one two three" | xargs mkdir |
上面代码中,mkdir会新建三个子目录,因为xargs将one two three分解成三个命令行参数,执行mkdir one two three。-d参数可以更改分隔符。
1 | $ echo -e "a\tb\tc" | xargs -d "\t" echo |
上面的命令指定制表符\t作为分隔符
,所以a\tb\tc就转换成了三个命令行参数
。echo命令的-e
参数表示解释转义字符
。
-p
参数,-t
参数
使用xargs命令以后,由于存在转换参数过程,有时需要确认一下到底执行的是什么命令。
-p参数打印出要执行的命令,询问用户是否要执行。
-t参数则是打印出最终要执行的命令,然后直接执行,不需要用户确认。
1
2$ echo 'one two three' | xargs -p touch
touch one two three ?...1
2$ echo 'one two three' | xargs -t rm
rm one two three
-0
参数与 find
命令
由于xargs默认将空格作为分隔符,所以不太适合处理文件名,因为文件名可能包含空格。
find命令
有一个特别的参数-print0
,指定输出的文件列表以null分隔
。然后xargs命令的-0参数
表示用null当作分隔符。
1
$ find /path -type f -print0 | xargs -0 rm
上面命令删除/path路径下的所有文件。由于分隔符是null,所以处理包含空格的文件名,也不会报错。
使得xargs特别适合find命令。有些命令(比如rm)一旦参数过多会报错”参数列表过长”,而无法执行,==改用xargs就没有这个问题,因为它对每个参数执行一次命令。==
1 | $ find . -name "*.txt" | xargs grep "abc" |
上面命令找出所有 TXT 文件以后,对每个文件搜索一次是否包含字符串abc。
-L
参数
如果标准输入包含多行,-L参数指定多少行作为一个命令行参数。
1 | $ xargs find -name |
使用-L参数
,指定每行作为一个命令行参数
,就不会报错。
1 | $ xargs -L 1 find -name |
-n
参数
-L
参数虽然解决了多行的问题,但是有时用户会在同一行输入多项。-n
参数指定每次将多少项,作为命令行参数。
1 | $ xargs find -name |
-I
参数
如果xargs
要将命令行参数传给多个命令,可以使用-I参数
。
-I指定每一项命令行参数的替代字符串。
1 | $ cat foo.txt |
上面代码中,foo.txt是一个三行的文本文件。我们希望对每一项命令行参数,执行两个命令(echo和mkdir)
,使用-I file
表示file是命令行参数的替代字符串
。执行命令时,具体的参数会替代掉echo file; mkdir file里面的两个file
。
--max-procs
参数
xargs默认只用一个进程执行命令
。如果命令要执行多次,必须等上一次执行完,才能执行下一次。--max-procs
参数指定同时用多少个进程并行执行命令
。--max-procs 2
表示同时最多使用两个进程,--max-procs 0
表示不限制进程数。
1 | $ docker ps -q | xargs -n 1 --max-procs 0 docker kill |
上面命令表示,同时关闭尽可能多的 Docker 容器,这样运行速度会快很多。
uniq 命令
Linux uniq 命令用于检查及删除文本文件中重复出现的行列
,一般与 sort 命令结合使用。uniq
可检查文本文件中重复出现的行列
。
1 | $ cat testfile #原有内容 |
当重复的行并不相邻时,uniq 命令是不起作用的,即若文件内容为以下时,uniq 命令不起作用:
1 | $ cat testfile1 # 原有内容 |
1 | uniq [-cdu][-f<栏位>][-s<字符位置>][-w<字符位置>][--help][--version][输入文件][输出文件] |
-c或--count
在每列旁边显示该行重复出现的次数。1
2
3
4
5
6
7
8
9
10
11
12uniq -c testfile
$ uniq -c testfile #删除重复行后的内容
3 test 30 #前面的数字的意义为该行共出现了3次
4 Hello 95 #前面的数字的意义为该行共出现了4次
2 Linux 85 #前面的数字的意义为该行共出现了2次
## 当重复的行并不相邻时统计各行在文件中出现的次数:
$ sort testfile1 | uniq -c
3 Hello 95
3 Linux 85
3 test 30
##可以按照每一行的出现次数进行排序,然后显示
$ sort ostechnix.txt | uniq -c | sort -nr-d或--repeated
仅显示重复出现的行列。请注意 -d(小写 d) 将会只打印重复的行,每组显示一个。打印所有重复的行,使用 -D(大写 D)1
2
3
4$ sort testfile1 | uniq -d
Hello 95
Linux 85
test 30-f<栏位>或--skip-fields=<栏位>
忽略比较指定的栏位。为了忽略比较前 N 个字段(LCTT 译注:即前几列)而不是字符,在上面的命令中使用 -f 选项。
-s<字符位置>或--skip-chars=<字符位置>
忽略比较指定的字符。1
2#像对文件中行的前 N 个字符进行限制比较一样,我们也可以使用 -s 选项来忽略比较前 N 个字符。
uniq -d -s 4 ostechnix.txt-u或--unique
仅显示出一次的行列。-w<字符位置>或--check-chars=<字符位置>
指定要比较的字符。1
2#使用 -w 选项来限制对文件中特定数量字符的比较。例如,让我们比较文件中的前四个字符,并显示重复行,如下所示:
uniq -d -w 4 ostechnix.txt--help
显示帮助。--version
显示版本信息。[输入文件]
指定已排序好的文本文件。如果不指定此项,则从标准读取数据;[输出文件]
指定输出的文件。如果不指定此选项,则将内容显示到标准输出设备(显示终端)。
awk 命令
AWK 是一种处理文本文件的语言
,是一个强大的文本分析工具。之所以叫 AWK 是因为其取了三位创始人 Alfred Aho,Peter Weinberger, 和 Brian Kernighan 的 Family Name 的首字符。awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行各种分析处理。
1 | awk [选项参数] 'script' var=value file(s) |
参数 | 描述 |
---|---|
-F fs or –field-separator fs | 指定输入文件折分隔符,fs是一个字符串或者是一个正则表达式,如-F : 。 |
-v var=value or –asign var=value | 赋值一个用户定义变量。 |
-f scripfile or –file scriptfile | 从脚本文件中读取awk命令。 |
-mf nnn and -mr nnn | 对nnn值设置内在限制,-mf选项限制分配给nnn的最大块数目;-mr选项限制记录的最大数目。这两个功能是Bell实验室版awk的扩展功能,在标准awk中不适用。 |
-W compact or –compat, -W traditional or –traditional | 在兼容模式下运行awk。所以gawk的行为和标准的awk完全一样,所有的awk扩展都被忽略。 |
-W copyleft or –copyleft, -W copyright or –copyright | 打印简短的版权信息。 |
-W help or –help, -W usage or –usage | 打印全部awk选项和每个选项的简短说明。 |
-W lint or –lint | 打印不能向传统unix平台移植的结构的警告。 |
-W lint-old or –lint-old | 打印关于不能向传统unix平台移植的结构的警告。 |
-W posix | 打开兼容模式。但有以下限制,不识别:/x、函数关键字、func、换码序列以及当fs是一个空格时,将新行作为一个域分隔符;操作符和=不能代替^和^=;fflush无效。 |
-W re-interval or –re-inerval | 允许间隔正则表达式的使用,参考(grep中的Posix字符类),如括号表达式[[:alpha:]]。 |
-W source program-text or –source program-text | 使用program-text作为源代码,可与-f命令混用。 |
-W version or –version | 打印bug报告信息的版本。 |
awk '{[pattern] action}' {filenames} # 行匹配语句 awk '' 只能用单引号
1 | [root@liruilong ~]# awk '{print $1,$2}' log.txt |
awk -F #-F相当于内置变量FS, 指定分割字符
1 | #使用","分割 |
awk -v # 设置变量
1 | [root@liruilong ~]# awk -va=1 '{print $1,$1+a}' log.txt |
awk -f {awk脚本} {文件名}
1 | $ awk -f cal.awk log.txt |
运算符 | 描述 |
---|---|
= += -= *= /= %= ^= **= | 赋值 |
?: | C条件表达式 |
|| | 逻辑或 |
&& | 逻辑与 |
~ 和 !~ | 匹配正则表达式和不匹配正则表达式 |
< <= > >= != == | 关系运算符 |
空格 | 连接 |
+ - | 加,减 |
* / % | 乘,除与求余 |
+ - ! | 一元加,减和逻辑非 |
^ *** | 求幂 |
++ – | 增加或减少,作为前缀或后缀 |
$ | 字段引用 |
in | 数组成员 |
过滤第一列大于2的行
1 | [root@liruilong ~]# cat log.txt |
过滤第一列等于2的行
1 | [root@liruilong ~]# awk '$1==2 {print $1,$3}' log.txt |
过滤第一列大于2并且第二列等于'Are'的行
1 | [root@liruilong ~]# awk '$1>2 && $2=="Are" {print $1,$2,$3}' log.txt |
内建变量
变量 | 描述 |
---|---|
变量 | 描述 |
$n | 当前记录的第n个字段,字段间由FS分隔 |
$0 | 完整的输入记录 |
ARGC | 命令行参数的数目 |
ARGIND | 命令行中当前文件的位置(从0开始算) |
ARGV | 包含命令行参数的数组 |
CONVFMT | 数字转换格式(默认值为%.6g)ENVIRON环境变量关联数组 |
ERRNO | 最后一个系统错误的描述 |
FIELDWIDTHS | 字段宽度列表(用空格键分隔) |
FILENAME | 当前文件名 |
FNR | 各文件分别计数的行号 |
FS | 字段分隔符(默认是任何空格) |
IGNORECASE | 如果为真,则进行忽略大小写的匹配 |
NF | 一条记录的字段的数目 |
NR | 已经读出的记录数,就是行号,从1开始 |
OFMT | 数字的输出格式(默认值是%.6g) |
OFS | 输出字段分隔符,默认值与输入字段分隔符一致。 |
ORS | 输出记录分隔符(默认值是一个换行符) |
RLENGTH | 由match函数所匹配的字符串的长度 |
RS | 记录分隔符(默认是一个换行符) |
RSTART | 由match函数所匹配的字符串的第一个位置 |
SUBSEP | 数组下标分隔符(默认值是/034) |
1 | [root@liruilong ~]# awk 'BEGIN{printf "%4s %4s %4s %4s %4s %4s %4s %4s %4s\n","FILENAME","ARGC","FNR","FS","NF","NR","OFS","ORS","RS";printf "---------------------------------------------\n"} {printf "%4s %4s %4s %4s %4s %4s %4s %4s %4s\n",FILENAME,ARGC,FNR,FS,NF,NR,OFS,ORS,RS}' log.txt |
使用正则,字符串匹配
1 | [root@liruilong ~]# cat log.txt |
~ 表示模式开始。// 中是模式。
1 | [root@liruilong ~]# awk '/yo/ ' log.txt |
忽略大小写
1 | [root@liruilong ~]# awk 'BEGIN{IGNORECASE=1} /this/' log.txt |
模式取反
1 | [root@liruilong ~]# awk '$2 !~ /th/ {print $2,$4}' log.txt |
awk脚本
关于 awk 脚本,我们需要注意两个关键词 BEGIN
和 END
。
- BEGIN{ 这里面放的是执行前的语句 }
- END {这里面放的是处理完所有的行后要执行的语句 }
- {这里面放的是处理每一行时要执行的语句}
假设有这么一个文件(学生成绩表):1
2
3
4
5
6
7[root@liruilong ~]# cat score.txt
Marry 2143 78 84 77
Jack 2321 66 78 45
Tom 2122 48 77 71
Mike 2537 87 97 95
Bob 2415 40 57 62
[root@liruilong ~]#1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
#运行前
BGEIN {
math = 0
english = 0
computer = 0
printf "NAME NO. MATH ENGLISH COMPUTER TOTAL\n"
printf "---------------------------------------------\n"
}
#运行中
{
math+=$3
english+=$4
computer+=$5
printf "%-6s %-6s %4d %8d %8d %8d\n", $1, $2, $3,$4,$5, $3+$4+$5
}
#运行后
END {
printf "---------------------------------------------\n"
printf " TOTAL:%10d %8d %8d \n", math, english, computer
printf "AVERAGE:%10.2f %8.2f %8.2f\n", math/NR, english/NR, computer/NR
}
~1
2
3
4
5
6
7
8
9[root@liruilong ~]# awk -f cal.awk score.txt
Marry 2143 78 84 77 239
Jack 2321 66 78 45 189
Tom 2122 48 77 71 196
Mike 2537 87 97 95 279
Bob 2415 40 57 62 159
---------------------------------------------
TOTAL: 319 393 350
AVERAGE: 63.80 78.60 70.001
2
3
4[root@liruilong ~]# awk 'BEGIN { print "Hello, world!" }'
Hello, world!
[root@liruilong ~]# awk 'length>80' log.txt
[root@liruilong ~]#1
2
3
4
5
6
7
8
9
10
11[root@liruilong ~]# seq 9 | sed 'H;g' | awk -v RS='' '{for(i=1;i<=NF;i++)printf("%dx%d=%d%s", i, NR, i*NR, i==NR?"\n":"\t")}'
1x1=1
1x2=2 2x2=4
1x3=3 2x3=6 3x3=9
1x4=4 2x4=8 3x4=12 4x4=16
1x5=5 2x5=10 3x5=15 4x5=20 5x5=25
1x6=6 2x6=12 3x6=18 4x6=24 5x6=30 6x6=36
1x7=7 2x7=14 3x7=21 4x7=28 5x7=35 6x7=42 7x7=49
1x8=8 2x8=16 3x8=24 4x8=32 5x8=40 6x8=48 7x8=56 8x8=64
1x9=9 2x9=18 3x9=27 4x9=36 5x9=45 6x9=54 7x9=63 8x9=72 9x9=81
[root@liruilong ~]#
转置文件
解法一:
1 | # NR已经读出的记录数,就是行号,从1开始 |
解法二:
解题思路为一列一列的读取文本,再使用xargs命令将列平铺开,达到转置的效果。其中读取列可以使用cut命令或awk命令。
1 | COUNT=`head -1 file.txt | wc -w` |
有效电话号码
1 | grep -P '^([0-9]{3}-|\([0-9]{3}\) )[0-9]{3}-[0-9]{4}$' file.txt |
第十行
1 | [root@liruilong ~]# sed -n '10p' file.txt |
sed 命令
Linux sed 命令是利用脚本来处理文本文件。sed 可依照脚本的指令来处理、编辑文本文件。Sed 主要用来自动编辑一个或多个文件、简化对文件的反复操作、编写转换程序等。
Linux 文件数据操作练习题整理(力扣)
https://liruilongs.github.io/2021/05/02/Linux/Linux 文件数据操作练习题整理(力扣)/
1.Linux 性能观测之平均负载
2.Linux BPF性能分析之基于BCC工具清单检查
3.Linux 常见性能分析方法论介绍(业务负载画像、下钻分析、USE方法论,检查清单)
4.Linux 网络隧道技术 VXLAN 认知
5.Linux 网络接口的混杂模式(Promiscuous mode)认知
6.Linux network namespace 多端通信(经典容器组网 veth pair + bridge 模式认知)
7.Linux network namespace(网络命名空间)认知
8.Linux 性能调优之文件系统调优(Tuning file system utilization)