要彻底去除文件中的重复行,必须先排序再使用uniq或直接使用sort -u,因为uniq只处理相邻的重复行。1. uniq命令仅能识别并处理连续重复的行,其原理是比较当前行与前一行,若相同则视为重复;2. 对于非相邻重复行,需先通过sort命令排序使相同内容相邻,再用uniq处理,常用组合为sort data.txt | uniq;3. 更简便的方式是使用sort -u,它一步完成排序和去重;4. 若无法排序或需更灵活控制,可使用awk '!a[$0]++'实现全局去重,该方法利用关联数组记录已见行;5. 在实际应用中,结合grep、awk、sed等工具可完成日志分析、配置文件清理等任务,如统计独立ip数或规范化黑名单;6. uniq常用选项包括-c(显示计数)、-d(仅显示重复行)、-u(仅显示唯一行),配合管道可实现复杂文本处理。因此,掌握uniq与相关命令的组合使用是高效进行命令行数据清洗的关键。

文件去重,尤其是命令行下,
uniq
uniq
sort
uniq
uniq
假设我们有一个名为
data.txt
apple banana apple orange apple banana
如果我们直接运行
uniq data.txt
# 直接使用 uniq,不会有变化 uniq data.txt # 输出: # apple # banana # apple # orange # apple # banana
要真正去除所有重复行,我们通常会结合
sort
sort
# 先排序,再通过管道传递给 uniq sort data.txt | uniq # 输出: # apple # banana # orange
这是一个非常经典的Unix哲学应用:通过管道将多个小工具组合起来,完成更复杂的任务。实际上,
sort
-u
--unique
# sort -u 是 sort | uniq 的快捷方式 sort -u data.txt # 输出: # apple # banana # orange
uniq
说起来,我记得我刚接触Linux那会儿,对
uniq
-d
这种设计并非是功能上的缺陷,而是一种性能上的考量。想象一下,如果
uniq
uniq
所以,当你看到
uniq
sort | uniq
虽然
sort -u
一个非常强大的替代方案是使用
awk
awk
awk
例如,要去除文件中所有重复的行,无论它们是否相邻,可以使用以下
awk
awk '!a[$0]++' data.txt
这条命令的解释是:
!a[$0]++
awk
$0
a
a[$0]
a[$0]++
a[$0]
!
a[$0]
awk
0++
!0
awk
a[$0]
1++
!1
awk
这样,
awk
a
uniq
在日常的开发和运维工作中,
uniq
日志分析中的重复事件统计: 假设你有一个服务器访问日志
access.log
# 统计独立访问IP数量
awk '{print $1}' access.log | sort -u | wc -l
# 统计不同错误消息的出现次数
grep "ERROR" app.log | sort | uniq -c | sort -nr
# 解释:
# grep "ERROR":筛选出所有包含 "ERROR" 的行。
# sort:对错误行进行排序,使相同的错误消息相邻。
# uniq -c:统计相邻重复行的次数,并在每行前面加上计数。
# sort -nr:再次排序,但这次是按数字(n)逆序(r)排列,这样出现次数最多的错误就会排在前面。这种组合方式能让你快速洞察日志中的模式和异常。
配置文件或列表的去重与规范化: 有时你需要维护一个列表文件,比如白名单、黑名单或者某个配置项的列表,确保其中没有重复项。
# 清理并规范化一个域名黑名单文件 # 假设 blacklist.txt 中可能含有空行、重复域名,且大小写不一致 cat blacklist.txt | sed '/^\s*$/d' | tr '[:upper:]' '[:lower:]' | sort -u > cleaned_blacklist.txt # 解释: # sed '/^\s*$/d':删除空行(包括只包含空白字符的行)。 # tr '[:upper:]' '[:lower:]':将所有大写字母转换为小写,实现大小写不敏感去重。 # sort -u:排序并去重。 # > cleaned_blacklist.txt:将结果保存到新文件。
这种流程可以确保你的配置列表始终是干净且唯一的。
数据预处理阶段: 在将数据导入数据库或进行进一步分析之前,去除重复记录是至关重要的一步。无论是CSV文件还是其他文本格式,
sort -u
# 去除CSV文件中的重复行(假设每行都是一条记录) sort -u input.csv > unique_records.csv
uniq
-c
-d
-u
结合这些选项,
uniq
uniq
sort
grep
awk
以上就是如何去除文件重复行 uniq命令相邻去重实战的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号