A5站长网SEO团队 首页 专家专栏 查看内容

互联网泡沫时代 如何避免远离垃圾内容

2012-12-10 15:15| 发布者: 凌芳| 查看: 701| 评论: 0

摘要: 自从搜索引擎的诞生,给网民们带来很多受利之处,但是由于网民们的慵懒习惯,网上垃圾内容的泛滥也是正常的,但是搜索引擎都在强调网站建设的核心要放到内容建设上,要想真正想获得排名、流量,仅仅靠copy/paste是很 ...
       自从搜索引擎的诞生,给网民们带来很多受利之处,但是由于网民们的慵懒习惯,网上垃圾内容的泛滥也是正常的,但是搜索引擎都在强调网站建设的核心要放到内容建设上,要想真正想获得排名、流量,仅仅靠copy/paste是很难成功的。

  垃圾的内容主要是指那些复制、粘贴、转载去除版权等内容,垃圾的重复内容不仅会发生在两个网站之间,有时因为一些CMS的不完善,会导致同一个网站上出现大量的重复内容,这些内容会给搜索引擎抓取造成干扰,蜘蛛会选择性的进行过滤,对于这些重复页面的出现,到底会给网站带来怎样的影响:

  首先:浪费蜘蛛爬行页面,蜘蛛对每个网站都设置有爬行机制,每次爬行先都会有特定的爬行次数,如果网站中存在大量的重复页面,蜘蛛需要对这些进行重复检索,每检索一次重复的页面,蜘蛛抓取其他页面的几率就小一次,同时,蜘蛛会经常对数据库中存在的相同页面进行过滤,这样并会导致网站中的收录越来越少。

  其次:分散主页面权重,网站中存在多个版本的页面,站长无法决定蜘蛛会抓取显示那个版本的页面,有时会遇到蜘蛛抓取显示的并不是主推的页面,非必要的页面被抓取,权重高于主页面,这样的复制内容页面不仅会影响网站用户体验,也可能导致降低网站的成交率。总之,搜索引擎不一定会选择你想要的版本,这样就会导致权重的分散。

  最后:影响用户体验,不管是企业类站点,还是商城类网站,网站的核心都是用户,用户不会喜欢网站上总是出现同样的内容,或者是总是出现互联网上泛滥的信息,对于用户来说他们想看到的是新的东西,不说是原创的内容,至少是对他们有帮助的。复制重复的页面不仅会分散权重,也严重的影响了用户体验。

  随之搜索引擎技术的提高,搜索引擎完全可以有能力分辨什么是原创?什么是复制重复内容?蜘蛛会经常清理些对用户没有什么价值的站点,甚至会直接从搜索引擎中删除。现在的确是互联网的泡沫时代,但是仍然还是有一部分站长坚守着原创,坚守着新颖的东西,只要坚持新颖的东西,才不会被行业所淘汰。泡沫时代下要想重生,又如何才能避免远离垃圾内容呢?笔者给大家说说几点方法:

  第一:改进规范网址信息,网站由于系统的问题,导致一个页面可以有多个入口访问,这样的情况尝试让每个网页只能有一个URL,将旧的网址301重定向到新的URL,让搜索引擎看到你对重复内容的改进。

  第二:使用标签屏蔽,使用canonical标签,Google、雅虎、微软等搜索引擎一起推出的一个标签,它的主要作用是用来解决由于网址形式不同内容相同而造成的内容重复问题,这是消除复制页面的第二个好方法。或者使用robots.txt文件阻挡蜘蛛爬行网站中的复制页面、或是使用网站的meta nofollow标签,防止任何链接权重流向复制页面,这些方法都可以避免网站中复制页面给网站优化的影响。

  第三:复制外部重复内容。网站被采集、被转载、不加版权信息的现象很常见,为了防止这些外部源对网站的影响,我们可以采取一些措施补救。如禁止右键复制粘贴、网站内容系统中相同的内容标题发布不成功、明确要求用户生成的内容要有价值,提交的内容最好是具有独特性的,提交后不可再其他网站进行发布。当然这些要求可能不会所有会员都会遵守,但是有明确的明文规定,可能会减少点这样方面的问题。

  互联网泡沫时代出现复制重复内容很正常,上海兼职吧(http://sh.jianzhi8.com)认为对于用户来说,他们来网站想要看到的是多元化的信息,并不仅仅是不断重复的页面,站长是互联网泡沫时代的佣始者,也即将是互联网泡沫时代的结束者,只要站长们自己认识到复制内容的弊端,站长们才能真正的收益,互联网的泡沫时代才能真正的结束。


路过

雷人

握手

鲜花

鸡蛋

QQ|SEO服务 ( 苏B2-20110049 )

GMT+8, 2021-8-1 16:07

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

返回顶部