在linux中awk的用法下利用awk处理文本数据时出现的问题,请指教!

查看:34991|回复:86
假如一个目录下有如下文件
我想把这个目录下的文件前11位列出来,结果为:
有什么办法没有,请高手指教
ls -l | cut -c -11
引用:原帖由 金兔儿 于
14:40 发表
ls -l | cut -c -11 我想对文件名进行过滤,按照这个执行得到的是这个目录下文件的权限
-rw-r--r--
-rw-r--r--
-rw-r--r--
-rw-r--r--
-rw-r--r--
-rw-r--r--
-rw-r--r--
是这个结果,能再帮忙看看吗?大师
引用:原帖由 leo55C 于
16:26 发表
我想对文件名进行过滤,按照这个执行得到的是这个目录下文件的权限
-rw-r--r--
-rw-r--r--
-rw-r--r--
-rw-r--r--
-rw-r--r--
-rw-r--r--
-rw-r--r--
是这个结果,能再帮忙看看吗?大师 ... 我只想列出文件名的前11位,还想对结果进行排重
看你的主楼,我还以为你的系统比较特殊,最前面几列不是权限……
稍微等下哈,我看下文件名是第几个字段~
ls -l | cut -d ' ' -f 11 | cut -c -11
详细列出当前目录下文件。
cut -d ' ' -f 11
-d ' '表示将字段分割符设定为空格,默认是TAB。-f表示输出第十一个字段。
cut -c -11
输出前11个字符。
不错,解析的很清楚。
优秀技术经理
ls -l | awk '{print $9}' | cut -d_ -f1
引用:原帖由 gm100861 于
17:12 发表
ls -l | awk '{print $9}' | cut -d_ -f1 要是用awk的话,不如直接:复制内容到剪贴板代码:ls -l | awk '{print substr($9,1,11)}'输出第9个字段,从第1位开始,输出11位。
引用:原帖由 金兔儿 于
16:47 发表
ls -l | cut -d ' ' -f 11 | cut -c -11
详细列出当前目录下文件。
cut -d ' ' -f 11
-d ' '表示将字段分割符设定为空格,默认是TAB。-f表示输出第十一个字段。
cut -c -11
输出前11个字符。 ... ----------
执行结果是空的,再帮忙看看应该怎么执行
(22.88 KB)
引用:原帖由 金兔儿 于
17:38 发表
要是用awk的话,不如直接:
ls -l | awk '{print substr($9,1,11)}'
输出第9个字段,从第1位开始,输出11位。 这个目录下的文件很多,我想取到前11位以后进行排重,awk是全部输出来了,不可以排重呐,帮忙给再看下咯
优秀技术经理
引用:原帖由 leo55C 于
17:44 发表
这个目录下的文件很多,我想取到前11位以后进行排重,awk是全部输出来了,不可以排重呐,帮忙给再看下咯 ls -l看一下输出结果。
优秀技术经理
引用:原帖由 leo55C 于
17:44 发表
这个目录下的文件很多,我想取到前11位以后进行排重,awk是全部输出来了,不可以排重呐,帮忙给再看下咯 加sort和uniq
ls -l | awk '{print substr($9,1,11)}' | sort | uniq
引用:原帖由 gm100861 于
17:48 发表
加sort和uniq
ls -l | awk '{print substr($9,1,11)}' | sort | uniq 老兄:提示
Cannot find or open file |.
The source line number is 1.
引用:原帖由 leo55C 于
17:44 发表
这个目录下的文件很多,我想取到前11位以后进行排重,awk是全部输出来了,不可以排重呐,帮忙给再看下咯 好像这里不能用空格作分割符,否则字段数量不确定……
排重的话,后面加上【| uniq】就可以了呀~
引用:原帖由 gm100861 于
17:46 发表
ls -l看一下输出结果。 ------
ls -l的结果是
(22.88 KB)
引用:原帖由 gm100861 于
17:48 发表
加sort和uniq
ls -l | awk '{print substr($9,1,11)}' | sort | uniq 郁闷了,琢磨了好几分钟才明白排重的意思,我先把重读成zhong了,结果回复晚了……
没想到ls -l不宜用空格当分割符,好像随文件大小不同差别还蛮大的,我之前想用
awk -F'[ _]'
来着,结果失败了。
引用:原帖由 金兔儿 于
17:51 发表
好像这里不能用空格作分割符,否则字段数量不确定……
排重的话,后面加上【| uniq】就可以了呀~ OK了,是ls -l | awk '{print substr($9,1,11)}' | sort | uniq
sort前面的分隔符有点问题,多谢大侠
优秀技术经理
引用:原帖由 leo55C 于
17:50 发表
Cannot find or open file |.
The source line number is 1. [root /var/tmp]# ls -l | awk '{print $8}' | cut -d_ -f1
[root /var/tmp]# ls -l | awk '{print $8}' | cut -d_ -f1 | sort |uniq
引用:原帖由 leo55C 于
17:55 发表
OK了,是ls -l | awk '{print substr($9,1,11)}' | sort | uniq
sort前面的分隔符有点问题,多谢大侠 其实我觉得吧,既然是从文件名前面开始截的话,【| sort】好像就没必要了,【ls -l】已经自动排序好了。
不过养成这个习惯也是好的:)1
引用:原帖由 金兔儿 于
17:55 发表
郁闷了,琢磨了好几分钟才明白排重的意思,我先把重读成zhong了,结果回复晚了……
没想到ls -l不宜用空格当分割符,好像随文件大小不同差别还蛮大的,我之前想用
awk -F'[ _]'
来着,结果失败了。 ... 呵呵,问题终于得以解决,也非常感谢你的回复,跟你学习了cut命令的使用,感谢非常!!!一开始我以为awk只是linux里面的一个命令而已,可是我.._IT教育论坛
&>&&>&&>&&>&awk的初次接触
awk的初次接触
一开始我以为awk只是linux里面的一个命令而已,可是我错了。它不但是linux下一个很好的工具,还是一门强大的编程语言,甚至在简洁方面比C语言还要厉害。麻雀小,五脏具全,况非麻雀呼!
awk 提供了极其强大的功能:它几乎可以完成grep 和sed 所能完成的全部工作,同时,它还可以进行样式装入、流控制、数学运算符、进程控制语句甚至于内置的变量和函数。它具备了一个完整的语言所应具有的几乎所有精美特性。
awk是linux系统下自带的宠物,无须你再费神去寻找和安装(C的开发工具还是要付费的哦)。在linux下,对处理文本数据是一个绝佳的工具。常用的用法是:
awk [ -F re] [parameter&] [&prog&] [-f progfile][in_file&]
这种写法很明显就是命令的格式。-F re:允许awk 更改其字段分隔符。parameter: 该参数帮助为不同的变量赋值。-f progfile:允许awk 调用并执行progfile 指定有程序文件。progfile 是一个文本文件,他必须符合awk 的语法。in_file:awk 的输入文件,awk 允许对多个输入文件进行处理。值得注意的是awk 不修改输入文件。如果未指定输入文件,awk 将接受标准输入,并将结果显示在标准输出上。
awk还有很强大的内置函数,像print等。语法当然也包括普通语言有的if。。。else。。。,while,do。。。while。。。
只要是原因和结果就是啊,后面的图并不完整.
本帖标题:
本帖地址:
注意:本论坛的任何言论仅代表发言者个人的观点,与希赛网立场无关。请对您的言论负责,遵守中华人民共和国有关法律、法规。如果您的帖子违反希赛网论坛规则,将立即删除。
&&&&&&&&&&&&
希赛网 版权所有 & &&那些年我用awk时踩过的坑——那些年我用awk时踩过的坑
|@||@||@||@|
) print $ ] & $) print $ : list.txt
相信有不少朋友会觉得诧异:
有些人会认为list.txt里面应该只有一行数据,就是ls -1rt命令输出内容的最后一行。
有些人会认为应该有6条数据才对,因为ls -1rt执行了三次。
有这种想法的人,多半是不知道awk一个规定: 默认情况下同一个文件或者管道只打开一次,如果需要重复打开,需要先close。
上面的脚本由于没有显式close文件和管道,list.txt和ls -1rt都只打开/执行了一次,所以输出结果如上。再猜猜看:下面这个脚本运行完后list.txt里面的内容是什么?
、 、 \、 、 { print 、 、
9 中文竖线问题
实际工作中,经常碰上文件中每行记录里面用竖线'|'做为分隔符的,如"a|b|c|d"。如果文件里面没有中文,这样做是没问题的。
但如果有中文,特别是gbk编码在中文时,这样做就容易出问题了。
gbk编码中,中文由两个字节组成,第一个字节取值范围是[128, 256),第二个字节取值范围是[0, 256)。
如果第二个字节值正好是'124',也就是'|'字符的asscii码,awk处理时就会误以为这个字节是分隔符,从而导致分割字符串时出现错乱。
那有哪些中文是这样的呢? 可以用以下脚本输出gbk编码中包含竖线的特殊中文:(其它编码类似)
] = $; } ]; } }
awk: ^ syntax error
由于这个脚本是晚上加班到深夜时写的,当时头脑不清醒,看到报错蒙了好久:怎么看语法都是对的,但是运行却总是提示语法错了。所以现在我写比较复杂的awk脚本,变量名都习惯前面加上v_后缀,这样可以减少名字冲突的概率。
暂时就总结了这些。如果大家也碰上过使用awk的问题,不妨一起发出来讨论一下吧:)
更多相关文章
目前我遇到一个问题是:执行某一命令(./cmu)时需要输入密码才能完整执行,但现在项目中的程序需要调用这一命令,目前我不知道怎么传密码参数,请大家指教 ./cmu export -handle=30 -output=myss.cer Please enter password for token i ...
报错 HTTP Error 414. The request URL is too long已经设置了maxurllength为什么还不行 传的值 没有超过2097151&system.web& &httpRuntime maxQueryStringLength=&209 ...
awk命令有点像grep了,可以对大文件的查找与编辑了,下面我们一起来看看awk命令的使用方法详解,希望例子能够对各位带来帮助.awk是linux中非常强大的文本分析工具.简单来说,awk就是把文件逐行的读入,以空格为默认分隔符将每行分割,分割的部分再进行各种分析处理.awk的基本用法awk使用的基 ...
awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在其对数据分析并生成报告时,显得尤为强大,下文我们就来介绍查询远程服务器内存以及awk使用吧.使用方法awk '{pattern + action}' {filenames}调用awk有三种方式调用awk1.命令行方式awk
1. grep 常用方法与参数grep &关键字& 文件名grep &关键字& 文件名1 文件名2 ..... //在指定的多个文件中查找关键字grep &关键字& * //表示在当前目录下的所有文件中查找grep &关键字&qu ...
awk语言的最基本功能:在文本或字符串中给予指定规则浏览和抽取信息.
awk抽取信息后,才能进行其他文本操作,完整的awk脚本通常用来格式化文本中的信息.
三种调用awk的命令方式:
1.命令行方式:awk [-F field-separator] 'commands' input-fil ...
Linux shell编程之awk的用法1. awk的使用基本功能:在文件或字符串中基于指定规则浏览和抽取信息.awk抽取信息後,才能进行其他文本操作.完整的awk脚本通常用来格式化文本文件信息.调用方式:1. 命令行方式2. 将所有awk命令插入一个文件,并使awk程序可执行,然后使awk命令解释 ...
图片来源: Shutterstock我们不要让下一代 Linux 和 Unix 的管理员忘记初始化脚本和基本工具的好处我曾经有一次在 Reddit 看到一个帖子,“请问如何操作文本文件”.这是一个很简单的需求,就像我们常用 Unix 的人每天遇到的一样.他的问题是,如何删除文件中的重复行,只保留不重 ...
伪静态如果使用直接中文对于搜索引擎不好的同时我们获取也经常会出现乱码,有时从google过来正常,但在百度又是乱码,有时使用360乱码在ff浏览器所有搜索引擎都没问题了,为了解决这个问题下面我们来总结一下我的分析过程一.问题的由来.URL就是网址,只要上网,就一定会用到.一般来说,URL只能使用英文 ...
CKEditor Link插件,支持超链接地址,页面锚点和电子邮箱类型链接地址又包括htt ...
delete语法单表语法:delete [low_priority] [quick] [ignore] from tbl_name [where where_definition] [order by ...] [l ...
发布日期:1更新日期:4受影响系统:Cisco Web ...
发布日期:9更新日期:2受影响系统:OSSEC OSS ...
Kernel driver not installed (rc=-1908)The Vir ...
发布日期:9更新日期:2受影响系统:RPM RPM P ...
Fedora 19下搭建LAMP一.安装Mysqlyum install mysql my ...
本文主要验证lvm+raw设备 表空间的最大可用空间大小--1.建表空间之前的准备,/de ...
MeTA1 1.0 Alpha 19 发布,此版本具体更新内容如下:fixed a sta ...
OpenXava是一个让使用XML与Java来开发J2EE商业应用程序变得简单的框架.Op ...所谓的文本处理是指对文本进行查找、替换、删除、排序等操作, linux在文本处理方面提供了大量优秀的工具, 使得在linux下进行文本处理极其的方便.
我们平常的工作中, 经常会用到文本处理, 比如日志分析, 比如文本抽取, 等等, 所以掌握好文本处理, 将会对我们的工作起到极大的作用.
所谓的文本处理是指对文本进行查找、替换、删除、排序等操作, linux在文本处理方面提供了大量优秀的工具, 使得在linux下进行文本处理极其的方便.
我们平常的工作中, 经常会用到文本处理, 比如日志分析, 比如文本抽取, 等等, 所以掌握好文本处理, 将会对我们的工作起到极大的作用.
下面我就来逐个介绍下这些强大的工具, 对于我觉得大家可能比较熟知的工具及用法, 我会略过, 或者粗讲下.
2 关于输入
Linux哲学中, 为了更好的组合各种命令达到更加强大的功能, 大多数文本处理命令的输入既可以是文件, 也可以是标准输入, 如果没有指定输入文件, 则默认从标准输入读数据. 输出都是标准输出, 方面传给管道线的下一个命令, 想要输出到文件的话, 重定向下即可. 下面介绍的这些命令, 如无特殊说明, 则都可以从文件或者标准输入读入数据.
3 文本输出
3.1 整个输出
3.2 部分输出
4 文本搜索
4.1 grep (Global Regular Expression Print)
非常常用的命令, 打印文本中匹配模式的行, 下面的选项最好都能掌握.
grep [OPTIONS] PATTERN [FILE...]
grep [OPTIONS] [-e PATTERN | -f FILE] [FILE...]
4.5 agrep (approximate grep)
grep的模糊匹配版本
对压缩文件进行grep, 接受的选项和grep完全一样
4.7 sgrep (structured grep)
对结构化的文本, 如SGML、XML、HTML进行搜索、抽取, 功能非常强大
4.8 nrgrep (Nondeterministic Reverse grep)
5 文本摘要
5.1 wc (word count)
最主要的用途就是统计行数
5.2 md5sum
打印文本的md5, 主要用作文件校验, 防止文件传输时发生错误或者被篡改. -c选项检查md5是否正确
6 排序去重
非常常用的命令, 啥序都能排
所以, sort时, 设置LC_ALL是最保险的做法.
6.2 tsort (topological sort)
拓朴排序, 该命令可能会用的比较少
tsort &&EOF
也是非常常用的一个命令. 这个命令主要用来对有序序列进行去重, 所以它常和sort联合起来使用, 但是sort -u本身就有去重的功能, 所以当你仅仅只是为了去重时, sort -u就可以帮你搞定了(当输入文本巨大时, 可以用hash来去重提高性能, 比如awk的关联数组), 所以呢, 当年需要对重复的数据进行统计时, 会用到uniq. 当然其实uniq相比sort -u而言, 对重复数据有更加强大的处理
逐行比较两个有序文件, 分三列输出文件1独有的行、文件2独有的行、文件12共有的行,
$ comm ab ac
6.5 shuf (shuffle)
如果sort -R产生的结果还不够乱的话, 我想这个命令应该就是你需要的了. 该命令产生完全乱序的结果, 而且速度应该比sort -R快(shuf不用排序), 还有功能更强大
7 操作字段
挺常用的一个命令, 能非常方便的取某个字段
列表可以有多个, 之间以逗号分割, 比如:
cut -f1-3,4-7
这个命令很有意思, 把两个文件按行粘贴到一块, 曾经我想自己写个程序搞定这个需求, 后来发现linux下竟然已经有这玩意了(linux总能给你带来惊喜)
$ cat num2
$ cat let3
$ paste num2 let3
这是一个稍微高级点的命令, 它把输入文件当成一个key/value对, 然后会把同一个key的所有value粘贴到一块, 来个例子:
$ cat file1
$ cat file2
$ join file1 file2
join默认把第一额字段当作key, 字段之间以空格分割, 作为key的字段必须有序.
每个元素之间以逗号或者空格分割
8 操作字符
8.1 tr (translate)
主要对文本中的字符进行替换、删除.
tr [OPTION]... SET1 [SET2]
字符集合可以由一系列的字符构成, 也可以具有以下形式:
当提供2个字符集合时, 表示把SET1中的字符替换成SET2中的对应的字符, 比如:
tr a A & file # 把文件file中的小写a都变成大写A
tr '[:lower:]' '[:upper:]' & file # 把文件file全部大写
8.2 expand
每个编辑器对TAB的显示设置不一样, 有的显示为8个字符, 有的显示为4个字符, 这样就造成了在A编辑器下排版很漂亮, 到了B编辑器下变得一团糟, 所以编码的时候最好使用空白字符代替TAB(Emacs中这样设置: (setq-default indent-tabs-mode nil),
expand命令也可以帮你把TAB转换成空格
8.3 unexpand
Makefile缩进的时候, 必须是TAB, 所以有时候又需要把空格变成TAB, 就靠unexpand了
8.4 colrm (COLumn ReMove)
colrm [start [stop]]
该命令只支持标准输入, 不支持从文件输入.
删除每行从start到stop之间的字符, 如果stop没有指定的话, 则删除到末尾. 需要注意的是, TAB被认为占8列(不知道为啥这样搞)
9 文本切割
切割文本INPUT成文件PREFIXaa, PREFIXab … 默认每个文件1000行, PREFIX为x
split [OPTION]... [INPUT [PREFIX]]
9.2 csplit (context split)
根据模式切割文件, 简单了解即可
csplit [OPTION]... FILE PATTERN...
10 文本编码
10.1 iconv
经常会用到, 主要用来转换编码
我们经常需要知道文件的编码, 这个命令帮你搞定
11 文本格式化
打扮一下你的文本吧.
11.1 column
按列漂亮的输出:
$ (printf "PERM LINKS OWNER GROUP SIZE DAY HH:MM NAME\n"; ls -l | sed 1d) | column -t
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
computer-chess
drwxr-xr-x
taoshanwen
taoshanwen
computer-go
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
distributed
drwxr-xr-x
taoshanwen
taoshanwen
genetic-prog
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
search-engine
drwxr-xr-x
taoshanwen
taoshanwen
software-engineering
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
drwxr-xr-x
taoshanwen
taoshanwen
将一个比较长的文本行输出进行"折行".
将输入按照指定宽度进行折行, 功能较fold强大些
下面介绍文本处理中两个最强大的命令sed和awk, 它们已经具有一些程序设计语言的特征了, 特别是awk, 所以, 我们的脚本中, 放眼望去, 皆是awk阿. 熟练掌握这两个命令, 你的文本处理功力将会极大的提升阿.
12.1 sed (Stream EDitor)
sed是一个流编辑器, 类似ed(行编辑器, 通过各种命令编辑文件), 它提供了各种替换、删除的命令, 使得这些编辑操作能自动化起来.
每次循环开始时, pattern space的内容会被清空, hold space则不会
如果没有指定地址的话, 表示所有行对执行命令. 还可以提供2个地址, 指定一个地址范围, 这2个地址之间以逗号分割, 比如:
ADDRESS1,ADDRESS2
这样, 第一次匹配上ADDRESS1的行与第一次匹配上ADDRESS2的行之间的所有行都会执行对应的命令.
GNU sed还支持下面几种地址范围:
在地址或者地址范围后加感叹号(!), 表示取反.
s命令后的FLAGS可以由下面几种:
更多的例子参加sed info
12.2 awk (Alfred V. Aho, Peter J. Weinberger, Brian W. Kernighan.)
awk是文本处理的利器, 前面那些命令能干的事它都能搞定.
action要以大括号括起来, 比如:
awk '0{print} 1{print}' .emacs
14.1 我的正则会数学
15 参考文献
文章转自:;
版权声明:本文内容由互联网用户自发贡献,本社区不拥有所有权,也不承担相关法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件至: 进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容。
用云栖社区APP,舒服~
【云栖快讯】数据库技术天团集体亮相,分享一线生产实践经验,告诉你踩过的坑、走过的路,都是老司机,靠谱!干货分享,不可错过!&&
是解决用户结构化数据搜索需求的托管服务,支持数据结构、搜索排序、数据处理自由定制。 为您的网站或应用程序提供简单...
支持MySQL、SQL Server、PostgreSQL、MongoDB、Redis等关系型数据库和NoSQL...
为您提供简单高效、处理能力可弹性伸缩的计算服务,帮助您快速构建更稳定、安全的应用,提升运维效率,降低 IT 成本...
2017杭州云栖大会火热抢票
Loading...温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!&&|&&
R&D Dept., Sasmac, National Administration of Surveying, Mapping, and Geoinformation
Mobile: +86-
LOFTER精选
网易考拉推荐
用微信&&“扫一扫”
将文章分享到朋友圈。
用易信&&“扫一扫”
将文章分享到朋友圈。
阅读(78609)|
用微信&&“扫一扫”
将文章分享到朋友圈。
用易信&&“扫一扫”
将文章分享到朋友圈。
历史上的今天
在LOFTER的更多文章
loftPermalink:'',
id:'fks_',
blogTitle:'Linux:使用awk命令获取文本的某一行,某一列',
blogAbstract:'1、打印文件的第一列(域)&&&&&&&&&&&& & & : awk \'{print $1}\' filename2、打印文件的前两列(域)&&&&&&&&&&&&&& & : awk \'{print $1,$2}\' filename3、打印完第一列,然后打印第二列& : awk \'{print $1 $2}\' filename4、打印文本文件的总行数&&&&&&&&&& & && : awk \'END{print NR}\' filename5、打印文本第一行&&&&&&&&&&&&&&&&&&&&&&&&& :awk \'NR==1{print}\' filename',
blogTag:'',
blogUrl:'blog/static/',
isPublished:1,
istop:false,
modifyTime:2,
publishTime:2,
permalink:'blog/static/',
commentCount:0,
mainCommentCount:0,
recommendCount:2,
bsrk:-100,
publisherId:0,
recomBlogHome:false,
currentRecomBlog:false,
attachmentsFileIds:[],
groupInfo:{},
friendstatus:'none',
followstatus:'unFollow',
pubSucc:'',
visitorProvince:'',
visitorCity:'',
visitorNewUser:false,
postAddInfo:{},
mset:'000',
remindgoodnightblog:false,
isBlackVisitor:false,
isShowYodaoAd:false,
hostIntro:'Doctor\r\n\r\nR&D Dept., Sasmac, National Administration of Surveying, Mapping, and Geoinformation\r\n\r\nMobile: +86-\r\nEmail: , ',
hmcon:'1',
selfRecomBlogCount:'0',
lofter_single:''
{list a as x}
{if x.moveFrom=='wap'}
{elseif x.moveFrom=='iphone'}
{elseif x.moveFrom=='android'}
{elseif x.moveFrom=='mobile'}
${a.selfIntro|escape}{if great260}${suplement}{/if}
{list a as x}
推荐过这篇日志的人:
{list a as x}
{if !!b&&b.length>0}
他们还推荐了:
{list b as y}
转载记录:
{list d as x}
{list a as x}
{list a as x}
{list a as x}
{list a as x}
{if x_index>4}{break}{/if}
${fn2(x.publishTime,'yyyy-MM-dd HH:mm:ss')}
{list a as x}
{if !!(blogDetail.preBlogPermalink)}
{if !!(blogDetail.nextBlogPermalink)}
{list a as x}
{if defined('newslist')&&newslist.length>0}
{list newslist as x}
{if x_index>7}{break}{/if}
{list a as x}
{var first_option =}
{list x.voteDetailList as voteToOption}
{if voteToOption==1}
{if first_option==false},{/if}&&“${b[voteToOption_index]}”&&
{if (x.role!="-1") },“我是${c[x.role]}”&&{/if}
&&&&&&&&${fn1(x.voteTime)}
{if x.userName==''}{/if}
网易公司版权所有&&
{list x.l as y}
{if defined('wl')}
{list wl as x}{/list}

我要回帖

更多关于 linux中awk的用法 的文章

 

随机推荐