网站被搜索引擎惩罚了有什么补救的办法吗
作者:admin 日期:2021-09-18

  网站被搜索引擎惩罚了有什么补救的办法吗?惩罚检测不容易,惩罚的恢复就更是一件头疼的事情。要想知道为什么被惩罚,纠正错误,恢复原有排名,必须非常清楚地知道这个网站以前做了什么?排名怎么样?流量怎么样?过去一段时间更改了什么东西?做了什么推广?惩罚的形式是哪种?这些详细情况都很难用一两段文字说清楚,所以给其他网站诊断惩罚问题是比较困难的。最了解自己网站的是SEO站长自己。

网站被搜索引擎惩罚了有什么补救的办法吗

  A、知道惩罚原因

  如果搜索引擎通过百度站长平台或google网管工具通知站长被惩罚,这是最好办的情况,因为搜索引擎会告诉SEO站长为什么被惩罚。

  如果通过流量下降和搜索引擎上线算法更新的时间对比,能确认网站是被搜索引擎的某个算法影响,这也算比较幸运的了,搜索引擎通常会通知站长们这些更新要打击的对象,被惩罚的站长有比较明确的整改目标。(比如:飓风算法打击采集内容网站,就有一部分网站因为每天采集的量太大上千篇且没有原创需求内容的持续更新;收录和流量就受到影响。)

  上面两种情况都相对容易处理。如果百度在站长平台通知站长,网站有违反百度规范的链接,比如网站在百度绿萝算法上线时来自百度的自然搜索流量下降,那么要检查的就是网站的外链,包括买来的链接、群发垃圾链接、软文里的链接等。尽可能删除这些外链,实在删不掉的话,使用百度站长平台的拒绝外链工具。(只不过目前百度能识别垃圾外链,自动拒绝或者不计算权重,不需要站长提交了)

  B、不知道惩罚原因

  如果没有收到搜索引擎的惩罚通知,也不知道是被什么算法影响,下面这些方法可以参考。

  首先,如果被惩罚的网站确实就是一个垃圾网站,那么原因很明确。只有做一个好的网站,对用户有益的网站,才能解决根本问题。一个内容全是转载、抄袭,外链全部是博客论坛垃圾链接的网站,很难有好的排名,不值得费时费力。

  如果你认为自己的网站不是垃圾网站,确实是对用户有帮助的网站,却被惩罚,可以尝试以下方法。

  1.检查robots.txt文件

  这是一个看似不可能,却常常发生的导致惩罚的原因。尤其是网站被全部删除时,更是要仔细检查robots.txt文件。不仅要人工查看代码,还要用百度站长工具或Google网管工具验证是否有错误,造成禁止搜索引擎收录某些目录和页面。

  2.检查服务器上其他网站

  虽然搜索引擎不会因为SEO站长使用的服务器上有其他作弊网站而惩罚服务器上其他网站(百度搜索引擎官方一直强调搜索引擎不会有连坐机制惩罚网站),但是现在垃圾和作弊网站数目巨大,如果刚好有一个拥有大批垃圾网站的SEO站长和你使用同一架服务器,服务器上大部分网站都是作弊和被惩罚的,那么你的网站也可能被连累误伤。随机挑选一部分,查看一下收录和主要关键词排名情况。如果很多网站都有问题,那么尽早换主机提供商。

  3.检查网站是否使用了转向

  除了301转向,其他Mete更新,JS转向都有可能被怀疑为作弊,哪怕SEO站长的本意和想达到的目的其实与SEO作弊无关。如果网站上存在大量跳转,尽快删除。实际上,一个设计得当的网站根本没有多少必要使用跳转。

  4.检查页面Meta部分代码

  检查页面Meta部分是否有noindex:

  和robots文件一样,这也是看似不会犯的基础错误,但真的有人犯的错误。可能是公司其他部门人员加上去的,也可能是竞争对手黑进网站加上去的,还有可能是网站测试时加上去,正式开通却忘了删除。

  5.彻底检查网站是否优化过度

  查看页面是否有任何关键词堆积的嫌疑?是否为了加内链而加内链?是否锚文本过度集中?是否页脚出现对用户毫无意义、只为搜索引擎准备的链接和锚文字?有过度优化的地方,下决心“去优化”(减少优化)。很多关键词全面下降就是优化过度造成的,掌握优化的度是合格SEO人员必须亲身体验一遍的必经之路。

  6.少安毋躁,切莫轻举妄动

  如果确信自己网站没有作弊,遇到排名下降,切忌轻举妄动,不要忙着修改网站,先观察几天甚至几星期再说。排名下降不一定就是自己网站的问题,搜索引擎不断改变算法,有时推出新算法,监控数据表明新算法效果不好,过几天又改回去了。

  有时排名下降正是搜索引擎对网站的考验,坚持按兵不动一段时间,搜索引擎就知道是个正常网站。一遇到排名波动网站就修改,反倒会引起搜索引擎的特别注意,这是一个刻意在做优化的网站。真正为用户而做,而不是为搜索引擎而做的网站,基本上无须关心排名波动,这种网站才会得到搜索引擎的青睐。(万一网站被搜索引擎误伤导致排名下降一直未恢复,可以在百度站长平台中心反馈)

  7.检查服务器头信息

  虽然用户访问网站时看不出问题,页面正常显示,但搜索引擎访问时,服务器返回的头信息却可能有问题。我以前就遇到过朋友的网站,访问完全看不出问题,但用服务器头信息检查工具查看时,返回的全是404代码(正常应该是返回200代码),或者完全没有反应。

  我在SEO工具部分介绍了检查服务器头信息的线上工具。百度站长平台和Google网管工具都有模拟抓取工具,SEO站长可以看到搜索引擎蜘蛛访问自己网站某个页面时抓取的内容,不仅可以查看头信息是否正确,还可以检查页面是否被黑客加上了病毒代码、黑链、隐藏文字等。

  8.检查删除可疑链接 所谓可疑的链接包括:

  短期内大量交换友情链接

  页脚上出现的只为搜索引擎准备的回链锚文本

  买卖链接 (白金和黄金链接)

  链接做过黄赌毒的网站内容

  自己网站的大量交叉链接

  与网站主题内容无关的过多导出链接等

  这些链接看似不算严重作弊,但是与其他有作弊嫌疑的手法加起来,就可能使网站作弊分值达到被惩罚门槛。

  9.检查是否有重复内容

  包括网站本身不同URL上的相同内容,也包括与其他网站相同的内容。既可能是转载、抄袭造成的重复内容,也可能是技术原因造成的重复内容。如果一个网站从一开始就以转载、抄袭为主,被惩罚是应该的。加强高质量原创需求内容是一个网站刚开始时必不可少的过程。

  10.知道什么时候该放弃

  被搜索引擎严重惩罚的网站,能恢复的可能性不高。不要说站长经常弄不清楚为什么被惩罚,所以也无法完全改正,就算很清楚为什么被惩罚,清除了所有作弊内容,也未必得到搜索引擎的原谅。有时候网站排名恢复是惩罚两三年之后的事了,有的时候根本没机会恢复。所以,很多时候尝试恢复还不如放弃,重新开始一个新网站。

  总结:其实优化网站还是少抱有侥幸的心理来作弊优化网站;很多时候SEO人员要多想想“我这样的操作网站的手法是否刻意为了排名而做排名”一直以用户需求体验为前提的角度来优化网站,何愁SEO排名做不好呢?