(编辑:jimmy 日期: 2024/12/29 浏览:2)
语法格式:awk [选项] '指令' 操作文件
常用选项:-F 指定分隔符,分隔符用""引起来
实例1:在命令行直接输入awk指令
awk '{print}' 1.txt #逐行读取文件1.txt内容并打印
awk '{print $0}' 1.txt #逐行读取文件内容,并打印该行,$0保存的是当前行的内容
awk '{print "hello"}' 1.txt #逐行读取1.txt文件内容,每行结束后打印一个hello,文件1.txt有多少行就打印多少个hello
awk '{print $1}' 1.txt #打印1.txt的第一列内容,在不指定分割符的情况下,awk默认使用空白做分割符
awk -F ":" '{print $1}' /etc/passwd #以":"为分隔符打印/etc/passwd文件的第一例内容
实例2:将awk指令写入文件,通过-f选项调用
vim awkscript BEGIN { FS=":" } {print $1} awk -f awkscript /etc/passwd #通过调用awk指令文件来执行awk命令
实例3:awk的BEGIN块和END块
BEGIN用于初始化FS变量(列分隔符),打印标题,或者初始化后需要在程序中调用的全局变量
END用于执行最后的运算或者打印最终的输出结果
END块和BEGIN不是必须的
实例4:在awk中使用正则匹配,正则表达式必须要放在//中
awk '/123/{print}' 1.txt #打印1.txt中匹配123的那一行内容
awk -F ":" '/123/{print $2}' 1.txt #以":"为分隔符打印1.txt中匹配123的那一行中,第二列的内容
awk -F ":" '$1 ~ /root/{print $2}' /etc/passwd #打印/etc/passwd中,第一列匹配root的行其第二列的内容 ~表示匹配
实例5:awk的表达式和块
awk提供了多个比较操作符:"==
" ">
" "<
" "<=
" ">=
" "!=
" "~
"匹配 "!~
"不匹配
awk 'BEGIN{ FS=":"} $1 == "root" {print $3}' /etc/passwd #以":"为分隔符,打印/etc/passwd中第一列是root的行其第3列的内容
实例6:awk中的条件语句
awk 'BEGIN {FS=":"} {if ($1 ~ "root") {print $2}}' /etc/passwd # 以":"为分隔符,打印/etc/passwd文件中第一列匹配root的行,其第二列的内容
awk 'BEGIN {FS=":"} ($1 ~ "linux" || $2 ~ "Network") {print $3}' 1.txt # 以":"为分隔符,打印1.txt文件中,第一列匹配linux或者第二列匹配Network的行,其第三列的内容
在awk中NF变量记录的是当前行中有多少列(默认是空格为分割符)
awk '/ock/{print NF}' 1.txt # 统计匹配ock的行有多少列
awk 'NF == 3 {print}' 1.txt #打印1.txt中有3列的行的内容,示例中,第二行有三列,所以打印的就是第二行的内容
$NF记录的是当前行最后一列的内容(如果每一行有多列内容)
awk '{if (NR > 3) {print $NF} }' 1.txt # 输出1.txt中行号大于3的行,其最后一列的内容
NR记录的是当前行的行号
awk '{if (NR > 3) {print NR".\t"$0} }' 1.txt #格式化输入1.txt中行号大于3的行的行号和内容
awk 'BEGIN { x=0 } /^$/{x=x+1} END{print "find" " " x " " "blank lines"}' 1.txt #统计1.txt中有多少空行
awk '{print ($2**2) +1}' 3.txt #将3.txt文件中第二列内容做平方运算后再加1输入(字符串做平方运算后结果为0)
awk脚本示例1:
功能:打印1.txt文本中每一列的内容
#!/bin/bash num=`wc 1.txt | awk '{print $2}'` # 统计1.txt文件有多少列 for i in `seq 1 $num` # 根据文件列数进行循环 do awk -v a=$i '{print $a}' 1.txt # 打印每一列的内容,-v 参数可以指定一个变量保存外部变量的值,将外部变量传递给awk done
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对的支持。如果你想了解更多相关内容请查看下面相关链接