阿百川
发表于 2013-4-5 19:31:29
ksduck 发表于 2013-4-5 19:11 static/image/common/back.gif
楼主对数学二字的信心过低了,采集要是能骗过Google机器人,那站群早就是威力无比的大杀器了,google雇人再 ...
对比重复、采集其实很简单,关键是gg的海量数据,即使是再优秀的算法面的还在不断增长的海量数据的分析处理都很恐怖
maro666
发表于 2013-4-5 20:18:17
:lol呵呵 谷歌才是最大的采集站
ksduck
发表于 2013-4-5 21:41:26
阿百川 发表于 2013-4-5 19:31 static/image/common/back.gif
对比重复、采集其实很简单,关键是gg的海量数据,即使是再优秀的算法面的还在不断增长的海量数据的分析处 ...
我觉得,算法最不怕的就是数据量大,而人工最怕的才是数据量。
上帝的假牙
发表于 2013-4-5 23:59:26
ksduck 发表于 2013-4-5 19:11 static/image/common/back.gif
楼主对数学二字的信心过低了,采集要是能骗过Google机器人,那站群早就是威力无比的大杀器了,google雇人再 ...
信心来自于无所知,数学很可能是我们能看到最完美的东西,可惜,这种完美是人造之物。这种完美是以舍弃微小的差别为代价的,一个苹果和另一个苹果在数字中都是1,但是真实世界中的每个苹果根本不可能相同。那些微小的差异就像0.00001一样被丢弃。以统计为基础的谷歌惩罚程序毫无疑问能干掉所有具有典型特征的“不合格网站”,但是只要你是与众不同的那个0.00001,就意味着能够游离于谷歌程序之外,不被处罚。以前这些程序之外的不受欢迎网站可能只是少数,但是基数大了之后,例外的数量就非常可怕了。这些例外是很难处理的,只有借助于人工审核。站群本就是威力无比的大杀器,只是因为目的明显,用程序很容易识别处理。而且,人工审核极可能最先就是为了对付站群。
上帝的假牙
发表于 2013-4-6 00:05:03
阿百川 发表于 2013-4-5 19:31 static/image/common/back.gif
对比重复、采集其实很简单,关键是gg的海量数据,即使是再优秀的算法面的还在不断增长的海量数据的分析处 ...
采集的文章本身可以做到无懈可击,但是采集网站却肯定会有特征,我甚至认为很可能有致命特征被谷歌掌握。
上帝的假牙
发表于 2013-4-6 00:06:27
本帖最后由 上帝的假牙 于 2013-4-6 06:52 编辑
maro666 发表于 2013-4-5 20:18 static/image/common/back.gif
呵呵 谷歌才是最大的采集站
所以ZZ说过,做大才是硬道理。:lol
禁止发春
发表于 2013-4-6 10:58:01
楼主这个角度还是挺有道理的
上帝的假牙
发表于 2013-4-6 11:12:33
yang05130 发表于 2013-4-5 12:14 static/image/common/back.gif
采集的话,可以放一边啦~~~
采集是一种工具,在搜集信息上是非常有用的工具,对于测试网站主题是否和自己设想的一样也是非常有用的
上帝的假牙
发表于 2013-4-6 11:14:15
dfy 发表于 2013-4-5 12:32 static/image/common/back.gif
机器太死板,人又太情绪化。人和机器的结合才是未来的方向
谷歌正在这么做呢
shanguiyao
发表于 2013-4-7 09:06:01
楼主的一厢情愿罢了,也不想想。做什么事情都是要成本的,做网赚也是有利润空间才可以做。
现在这种情况。采集过一段时间就死了。经过一段时间后,除了那些牛人外,大多数站长生活都顾不住,还有多少人持之以恒的这样做。
更何况。全都去做站了,市场就这么大,哪有那么大的网赚空间。其结果就是停留在一个动态平衡上。
上帝的假牙
发表于 2013-4-7 10:39:10
shanguiyao 发表于 2013-4-7 09:06 static/image/common/back.gif
楼主的一厢情愿罢了,也不想想。做什么事情都是要成本的,做网赚也是有利润空间才可以做。
现在这种情况。 ...
嗯,看来你不知道互联网革命意味着什么
jk1s
发表于 2013-4-7 23:10:20
即使是采集也不能原封不动。不管是不是采集,独特的内容最重要。即使是原创,如果是老生常谈,又有什么价值。无论怎么做,都是要让搜索引擎认为你的网站内容独特。这也符合西方人的哲学,也许西方人就是喜欢有个性的东西。
小俞
发表于 2013-4-8 09:04:40
本帖最后由 小俞 于 2013-5-17 12:04 编辑
搜索引擎都要同一个数据给一个重复的量
上帝的假牙
发表于 2013-4-8 09:13:21
小俞 发表于 2013-4-8 09:04 static/image/common/back.gif
命题就有问题,搜索引擎的数据面对的是人,是反馈信息给人,采集的数据和原来的数据就算是一样本身也都是信 ...
搜索引擎的数据面对的是人,是反馈信息给人,采集的数据和原来的数据就算是一样本身也都是信息,搜索引擎都要同一个数据给一个重复的量,不然搜索一个数据,那个站挂了怎么办
这一点说得非常好,不过。。。你有没有看文章啊,我的文章说的主要是采集对谷歌的影响以及这种影响反过来又对于采集站的影响
cissss
发表于 2013-4-8 23:51:51
我每月赚不到10万块,不敢思考楼主所说的问题。