2013年底前国内一些大型域名注册商出现漏洞(参考国家互联网应急中心发布的若干漏洞公告),无数的域名遭到恶意泛解析,黑客利用这些域名制造了无数的菠菜网页,大量的网站收到伤害,被百度降权的例子也很多?。
归纳这些有害信息页面,大约有这些特点:
1.黑客制造了不计其数的多级域名(如3级4级,有的达到6级,如x.y.a.yourdomain.com)
2.这些垃圾页面文件名五花八门,多以拼音居多,比较长。
3.垃圾页面短期内难以清除,主域名权重越高越难清除。
4.短期内,删除恶意解析的IP,在百度等搜索引擎的收录不减反增。
那么,域名遭到恶意泛解析怎么办呢?下面笔者以客户的一个站为案例给出终极解决方案,说终极,因为笔者翻遍了互联网,基本上能找的资料都找过了,真正实用的并不多,而笔者通过2个多月的艰辛的摸索、思考找到一套行之有效的方法,这里奉献给各位深受其害的站长。
一、问题发现
2014年1月初,偶然发现有菠菜页面出现,以为网站被挂马了,检查并未发现网站本身问题,登录域名商域名管理系统,发现被人恶意添加了泛解析,百度中site一下,无数垃圾信息触目惊心,是不是太可恶了。
图1
二、基本处理方法
在被恶意泛解析后,有2个选择,要么直接删除泛解析,要么将泛解析的恶意IP换成我们能控制的IP,便于后面做404。
(一) 直接删除泛解析
如果恶意泛解析时间不长就被发现,直接删除就可以了,毕竟这时候搜索引擎还没收录或收录很少,不会给网站造成很大的麻烦。
(二) 修改恶意泛解析的IP
如果搜索引擎已经大量收录了由于泛解析引起的垃圾页面,直接删除会造成搜索引擎索引库中长期存在,不易清除,下面详细介绍修改恶意IP后返回404代码的方法。
1. 还是登录域名管理平台,添加三级域名泛解析*.h.mydomain.com 到自己的服务器IP(只要是自己能控制的IP应该都行,图2)
图2
2. IIS 里添加一个空主机头的网站(图3)网站目录可以在主站根目录下新建一个,比如404,404目录下放置一个404文件,如404.asp,如图4
图3
图4
3. 做伪静态处理
利用ISAPI_Rewrite full版的(版本2.9以后)
RewriteCond Host: (.*)(h\.mydomain\.com
RewriteRule /(.*) /404.asp [I,U]
这样,访问任何以h.mydomain.com为主域的垃圾地址都转向了404.asp,我们只要在404.asp里写上<%response.Status="404 Not Found"%>即可返回404代码,对各搜索引擎来说,就是该页不存在,时间长了,垃圾网址会自动消失,但如果想尽可能短的时间让搜索引擎从索引库中删除,还需要结合不同搜索引擎的特点分别处理。
三、不同搜索引擎的处理方式
(一)360搜索
就本案例来说,通过360快照投诉,效果很明显,且看邮件回复,图5。
图5
(二)百度
百度是中文搜索的老大,让这些垃圾页面从百度的索引库中删除非常重要,但又是异常艰难,我很奇怪的是,正常的页面要让度娘收录难死了,这种菠菜页面她却收得不亦乐乎。
既然度娘有能力发现我们网站有菠菜内容进而降权,那就该有能力不收录这些垃圾网页呀,何必弄得最后只有那些黑客得利而我们站长却耗费大量的人力物力来应付呢。
发现问题后,我们进行了以下处理措施
一、在百度站长平台反馈网站异常(有没有效果,咱不知道,写一下不费啥笔墨也没坏处)
二、进行百度快照投诉,百度的快照投诉处理和360的机制有些不太一样,人工还是机器处理不得而知,回复的邮件内容千篇一律(图6),但效果也是有的,需要2周左右时间。
图6
三、做好网站垃圾页面的404返回,然后提交死链
这一过程很辛苦,理想和现实差距很大(一个小细节,用主域名mydomain.com和www.mydomain.com提交死链,站长工具都会受理的)。
图7
(a)做好垃圾页面的404状态码
前面介绍了,在我们在404.asp里写入response.Status="404 Not Found",即可。
(b)百度蜘蛛访问垃圾页面时,记录垃圾页面地址入数据库
dim User_Agent’用户代理类型 可以用来判断是什么蜘蛛来访的
Dim User_Url’用户访问的网址
User_Agent=Request.ServerVariables("HTTP_USER_AGENT")
User_Url= Request.ServerVariables("HTTP_Host")& Request.ServerVariables("HTTP_X_REWRITE_URL") if instr(User_Url,"h.mydomian.com")>0 then’针对特定的垃圾地址进行过滤,也可以根据User_Agent判断蜘蛛
'保存到数据库,代码省去…
end if
(c)一个伪静态文件a.txt从数据库动态生成垃圾页面
还是利用rewrite做伪静态
RewriteRule a\.txt /a.asp [I,U]
就是将a.txt隐射到a.asp,aasp中可以动态输出前面记录到的垃圾网址
(d)站长工具死链平台定时更新a
在百度站长平台,提交死链地址
http://www.mydomain.com/a.txt,频率可以1天一次然而,站长平台的反馈结果是令人失望的,图8。
图8
图9
但通过各种工具检测,实际上这些页面返回的都是404代码(图9),这个问题令人百思不得其解,直到有一天在马桶上终于想明白了(原来人在放松的时候的确能想明白很多事情),百度蜘蛛的DNS问题,(最近站长平台又推出了抓取检测功能,实际测试证实了我先前的推测)。
原来垃圾页面采用成千上万的多级域名如x1.h.mydomain.com,x2.h.mydomain.com,每一个页面就相当于一个单独的网站,在我们未处理恶意泛解析之前,百度的DNS服务器已经将这成千上万的网站记录在案,当我们修改了恶意泛解析的IP地址后,百度的DNS服务器更新并不是十分及时,有些更新成我们的IP,有些则还是原来的恶意IP,但a.txt文件中包含还未更新DNS垃圾页面时,在百度蜘蛛看来便是活链,这如果提交的诸多死链中只要包含一个活链,则全部死链不能快速删除。
正是这样的道理,我们完美、简洁的删除死链方案受到极大的影响,为了能尽快删除这些死链,我们对原方案做了修改,采用化整为零的策略,图10。
图10
(a)、(b)步骤如前面所述,不再重复。
(c) 去重、筛选出百度的确收录的网址
很多垃圾网址虽然百度蜘蛛有访问,但却不一定收录,所以要确认下是否已经收录,方法很简单,直接将垃圾网址放入百度搜索框搜索看是否查到,当然实际应用中,最好写一个小工具批量查询;另外,站长平台目前死链文件上限是5万个。
(d) 每一个垃圾网址做成一个死链文件提交
我们将c步骤中获得的网址分割成一个一个的死链文件提交到平台。
(e) 等待平台删除死链
这样的处理,确保了可以删除部分死链,成功率>50%,随着时间的推移,百度蜘蛛DNS的更新,成功率越来越高,直到100%,就可以使用完美的方案了,图11。
图11
本文地址:
http://www.5ajob.com/news/n08/201403/15177.html,如要转载,请注明转载自5A农业人才网
[1] [2] [3] 下一页