相信做seo的人员都知道,外链对网站的权重具有一定的提升作用,然而如果你的外链是垃圾外链,那么对于网站的权重并没有任何意义,反而会影响网站的排名。经常听站长们说网站被人莫名挂大量垃圾外链现象,从而导致网站优化排名做不好。
一、为什么网站会被挂外链
实际上就是网站被恶意挂上了一些外部的链接,也就是我们常说的出站链接了,常见的网站被挂垃圾外链都是一些灰色行业的链接,例如:不正规网站链接,那么,为什么都是挂灰色行业的链接呢?就是这类的灰色行业本身是搜索引擎打击的对象,属于不正规的网站,还有就是灰色行业都是比较暴利的,正因如此,给别人的网站挂上自己网站的链接,从而,获得更多的利润,赚钱更多的钱财等。
二、网站被挂了大量垃圾外链的“危害”
网站被挂了大量的垃圾外链对网站的危害是很大的,因为,垃圾外链本身不能被搜索引擎马上识别,可是,这些未被识别之前的垃圾外链,是可以被搜索引擎计算到关键词的排名权重的,但是,假如你的这些垃圾外链被搜索引擎识别了。
搜索引擎就是删除这些垃圾外链,从而,就会导致你的网站降权的情况发生了,如果是因为网站被挂了大量垃圾外链所导致的网站降权的,这种降权情况的恢复周期是比较长的,一般要2-3个月才能恢复,所以,我们平时一定要做好网站的安全工作,尽量避免网站被黑客攻击,挂上了大量的垃圾外链。
注:上图为网站被挂外链的危害及解决垃圾外链的方法
三、解决网站被挂垃圾外链的方法
1、检查网站是否被挂马
网站如果被人恶意挂了大量的垃圾外链,这个时候,大家千万别着急,首先,一定要检查一下你的网站是否被挂马了,如果你的网站前一天还好好的,第二天就出现了很多的外链,那么,这种情况就极有可能是网站被挂马了,这种情况完全是你的服务器的安全性或是程序的安全性引起的挂马,从而,产生了大量的垃圾链接,这个时候,我们就必须要找到被挂马的位置,及时清楚挂马的链接页面了,然后,在把服务器空间的安全性和程序的安全性都解决了,最后,在修补一下网站的漏洞即可。
2、用robots.txt屏蔽目录
在解决了网站的服务器空间安全性和程序安全性之后,并且把网站的漏洞修补完成了,那么,接下来,就是可以用robots.txt搜索引擎协议文件进行屏蔽目录了,那么,应该要怎么做了,我们可以找到被挂马的链接路径特征,例如:假设你的挂马页面路径特征中有“?”的,那么,只需要在robots.txt协议中写入:Disallow:/这样就可以了。
3、有规律地更新网站内容
在完成上面所说的操作之后,接下来就是有规律地更新网站内容了,那么,怎么样才算有规律地更新内容呢?比如:你每天都在上午10点更新3篇文章内容,那么,就必须要保持这个时间段和更新的文章数量,而不能今天更新一下,明天不更新,后天一下子更新了10几盘文章,这样做是不行的,而且,在保证了有规律地更新之后,还应该要注意所更新的文章内容质量了,因为,现在搜索引擎对于文章内容的质量要求是很高的,而且,你的网站还是在刚清除完大量垃圾外链的情况下,更应该要注意所更新的文章内容质量了,一定要更新高质量的原创文章内容了。
4、反馈给百度站长平台
网站被挂大量垃圾外链的解决办法就是反馈给百度站长平台了,你可以去百度站长平台,然后,把你网站出现的这种被挂大量垃圾外链的情况反馈给百度,从而,请求百度给予合理公正的审判,但是,这里一定要注意,就是你一定要如实描述你要反馈的网站问题,详细说明网站最近所出现的情况,然后,只需要等待一段时间,很快就会恢复你的网站的。
总之,如果网站被人挂上垃圾外链是一件比较痛心的事情,而且,对于网站自身而言,影响力也是比较大的,因为被挂的外链一般是灰色行业,会给用户带来误导作用,也会影响搜索引擎抓取收录,这个时候我们需要用人工的手法清理垃圾外链,例如,用robots.txt屏蔽目录、坚持有规律更新网站内容、及时给站长平台反馈等方法,尽快清理网站的垃圾外链。