怎么去除重复网址
小白我最近逛bhw,发现不少好帖子,然后就复制了网址到一个txt文档里。到现在收藏下的网址多看了发现很多是重复收藏了,请教用什么工具能查出重复的网址,然后剔除掉。最后感叹下:光说不练假把式!take action
笨方法:EXCEL筛选 excel 是可以的 一点都不觉得excel是笨办法,相反这是时间投入最小的办法:
http://www.wangyeba.com/Article/rjjx/wlgj/200908/20090824092117.shtml EDITPLUS 文本编辑器 直接可以去重 我一直用 AkelPad ,里面自带去除重复,非常方便,因为我也常用这功能。 我在linux下
给你贴个简单可行的办法
cat url.txt|sort|uniq 忘记说了,如果txt里面有空格,比如结尾的空格,是会干扰这个uniq的
需要用vim或者其它工具先吧空格替换掉 已解决!谢谢楼上诸位大大的热情援助:)
页:
[1]