Zuckerberg 发表于 2011-10-31 10:09:22

原帖由 geyunbing 于 2011-10-31 10:03 发表 http://hostloc.wiki/images/common/back.gif
yc006t用dedecms?   采集来的数据 不能直接用吧 怎么进一步优化啊?
dedecms最好的方法是写规则,用织梦自己的采集插件,这样能做到放在服务器里,不用任何外挂,也不用打理,自动采集的效果。

垃圾站不能贪多,我们目前50个ip做了50个站。

但ip的跨度要大,这个要和你的idc去沟通。域名必须是一级独立域名。

每个站做到日ip几百大约需要3-5个月时间。

manhere 发表于 2011-10-31 11:59:44

:lol mjj,垃圾站都是这么搞出来的

神马皆浮云 发表于 2011-10-31 14:08:49

回复 11# Zuckerberg 的帖子

dede自带采集太占资源吧

云网数据 发表于 2011-10-31 14:33:41

回复 11# Zuckerberg 的帖子

都是高人!

aaaaaa 发表于 2011-10-31 22:51:00

得的的厉害了

有容乃大 发表于 2011-10-31 22:58:39

牛逼

linginfanta 发表于 2011-10-31 23:25:44

正在搞SEO,就怕被封啊。
页: 1 [2]
查看完整版本: 跳出率,是搜索引擎识别垃圾站最主要的因素吗?