网站被黑有何影响?怎么判断

作者:鼎极网络发布日期:2019-11-13浏览次数:6

网站被黑有何影响?

1、网站降权

网站降权是重要的一个影响,因为大多数网站都有数据库和文件备份,所以不可能被黑客全部毁掉网站,所以严重的应该是网站权重下降的问题,一旦网站被黑,网站之前做的所以的关键词排名会迅速下降,甚至没有,而这个恢复时间往往很漫长,特别是对企业影响极大。

2、网站信誉下降

如果是一个企业网站,出现了被黑,打开后又有产品,又有赌博之类的,客户自然不敢购买你的产品了,知道的人以为你网站被黑了,不知道的人还以为企业兼职在做赌博。

还很可能被用户举报,从而百度把网站列入不受信任网站,甚至有风险的网站,客户量大量流失。

3、风险提示

后一个就是安全联盟的风险提示,搜索某一个词,在搜索引擎的结果页面中显示红色字样的明显提示风险网站,打开时还会提醒这是一个风险网站,自然很难让客户相信你这个站点,这样的结果是网站基本没流量,也没关键词排名。

如何判断网站被黑

 

如果存在下列问题,则您的网站可能已经被黑客攻击:

 

1、通过Site语法查询站点,显示搜索引擎收录了大量非本站应有的页面。

 

2、从百度搜索结果中点击站点的页面,跳转到了其他站点。

 

3、站点内容在搜索结果中被提示存在风险。

 

4、从搜索引擎带来的流量短时间内异常暴增。

 

注:site查询结合一些常见的色情、游戏、境外博彩类关键字,可帮助站长更快的找到异常页面,例如“site:www.esobao.com 博彩”

 

一旦发现上述异常,我们建议您立即对网站进行排查。包括:

 

1、分析系统和服务器日志,检查自己站点的页面数量、用户访问流量等是否有异常波动,是否存在异常访问或操作日志;

 

2、检查网站文件是否有不正常的修改,尤其是首页等重点页面;

 

3、网站页面是否引用了未知站点的资源(图片、JS),是否被放置了异常链接;

 

4、检查网站是否有不正常增加的文件或目录;

 

5、检查网站目录中是否有非管理员打包的网站源码、未知txt文件等。

 

温馨提示:若直接访问网站时一切正常,但在百度的搜索结果展现了异常的快照内容,这可能是黑客做了特殊处理,只让百度蜘蛛抓取到异常的页面,以此来增加隐蔽性,让站长难以发现;同理,若直接访问网站正常,但从百度搜索结果页进行访问时,出现了异常页面,这是黑客针对百度来源(refer)做了特殊处理。

网站被黑了怎么办?

在这个水深火热的互联网战场上,很多站长都遇到同行业的恶意攻击,黑客入侵等等安全性受到威胁的问题吧。小编当然也不例外,做优化两年多,间间断断的也与黑客斗争了两年多,从初的手无足策到现在的淡然处之,就让小编教你如何去冷静的对网站被黑吧。

1.png

 

首先,我们都知道,遇到了网站被黑,时间就是去先把别人恶意嵌入的代码什么的去掉,其次再来慢慢的寻找服务器或者空间的漏洞,来填补这些漏洞防止下一次再被攻击,而如何去寻找你服务器的漏洞呢,这就要查看黑客是如何进入到你的网站之中的,每一个服务器都会有一个网站的日志,一般保存的时间是一个月内的,你可以把这些网站日志拿出来分析。分析黑客是什么时候来你的服务器的,什么途径以及什么手法来你的网站的。日志这点很重要,这是我们分析网站漏洞的关键。

第二步就是我要说的如何来处理被黑的页面和信息!被黑的页面和信息千万不要盲目的去恢复,去删除。有的时候狡猾的黑客会在你网站里面嵌入隐藏的ASP/PHP程序,你盲目的去删除这些信息,你会发现你找不到下手的地方了。我们要做的就是顺藤摸瓜,找到黑客在我们服务器或者虚拟主机里面留下来的根茎,只有连根拔起才能根本性的解决问题。一般情况可以用安全钩等安全防护软件,来进行代码清理和扫荡,彻底的查出来网站空间所存在的攻击代码。而用杀毒软件查到网站的病毒之后先不忙着删除,一般比较有头脑的黑客不会简简单单的只留下一个后门,就拿我的网站来说吧,我的站是PHP的我删除了一个病毒之后,原本以为相安无事了。没想到过了1个星期,病毒有出现了,这就是吃一亏长一智啊。正确的做法是,看到网站里面的那个病毒之后。查看那个病毒的修改时间,那么网站根目录里面其他修改时间类似于这个病毒的基本上都会有嫌疑。

查出了对方所留下的病毒和后门,接下来就可以在我们步的网站日志中以这个后门为关键词,查找出来相关的IP段,通过这个IP段来分析黑客是以何种手法来攻击网站的。了解对方详细的入侵过程。因为毕竟只有有漏洞黑客才会利用你的漏洞留下后门来到你的服务器里面进行篡改。现在我们查出了漏洞的所在,及时的去更新或者修补这个漏洞。再把黑客留下的病毒和后门通通杀掉,实现根本意义上的通杀。

后就是修改一切网站、服务器、FTP等文件传输软件的密码,而本人建议好修改服务器的端口,超级管理员密码。毕竟小心驶得万年船嘛。而我们获得的那个IP,网站被入侵的日志分析,提交给当地的网警。接下来的事情交给网警处理就好了。

SEO解决办法

1、直接的方式:关闭网站

 

百度统计后台有关闭网站的功能,可以直接选择关闭。如果是个人小站还好,但如果是企业站的话,一般直接关闭网站就不太现实了,一旦关闭网站,企业损失一般很大。

 

2、彻底的方式:启用网站备份文件

 

在网站被黑之前,我们就要对相应的数据库和文件进行备份,这样能地网站的安全,同时网站遇到被黑的情况时也能很快的恢复网站的运营。

 

3、网站被黑后,要立马找出黑链,并迅速予以删除。

 

4、要及时提交死链给百度等主要搜索引擎,在一个404txt文档列出所有的死链,然后上传到FTP空间根目录下,把地址提交给百度即可。

 

5Robots文件的设置,把删除的死链的相关文件设置为不允许抓取。

 

6、坚持一段时间的高质量内容更新。

 

7、适当找一些高质量的外链。

 

8、经常更换一下系统管理员的密码,密码要足够强,好是数字、字母和符号的组合。

 

9、找程序员及时更新网站防木马程序,安装网站安全杀毒软件。有条件建议找专业做网站安全的公司来做安全维护。

 

10、定期对网站进行安全的检测:

 

1)分析系统日志、服务器日志,检查自己站点的页面数量、流量等是否有异常波动,是否存在异常访问或操作日志;

 

2)检查网站文件是否有不正常的修改,尤其是首页等重点页面;

 

3)网站页面是否引用了未知站点的资源(图片、JS等),是否被放置了外站的异常链接;

 

4)检查网站是否有不正常增加的文件或目录;

 

5)检查网站目录中是否有非管理员打包的网站源码、未知txt文件等。

 

强烈要求:定期做好网站安全监测,这样才能及时发现并解决问题,从而有效降低损失。

 

11、谨慎上传漏洞

 

上传漏洞往往是简单也是严重的,能够让黑客或骇客们轻松控制你的网站,可以禁止上传或着限制上传的文件类型,不懂的话可以找你的网站程序提供商。

 

12、目录权限

 

请管理员设置好一些重要的目录权限,防止非正常的访问,如不要给上传目录执行脚本权限及不要给非上传目录给于写入权。

 

13、数据库每天备份一次,文件每周备份一次,当然主要还是根据你网站的更新平率来定,当然也可以借助网站自动备份工具,方便快捷备份你的网站文件和数据库。


关键词:

日志分析

 

1.什么是网站日志,从网站日志里面外面能得到什么?

 网站日志:服务器记录了用户在网站上面的一些行为信息

 内容包括:访客的IP地址 访问的时间  访问的方式  访问的协议  访问的状态码  访问的页面  访问了页面的大小  访客的操作系统以及使用的浏览器版本及内核

2.如何获取网站日志

  登陆FTP     Weblog文件夹  下载

3.常见返回状态码:

    200  返回成功 可以正常访问

301  重定向   集中权重     

302  临时重定向

    304状态码 如果客户端发送了一个带条件的GET 请求且该请求已被允许,而文档的内容(自上次访问以来或者根据请求的条件)并没有改变,则服务器应当返回这个304状态码。简单的表达就是:客户端已经执行了GET,但文件未变化。

    403  forbidden 服务器拒绝访问  权限问题    服务器不支持这个脚本运行

404  访问的页面不存在 not found (404错误页面)

500  并发数超了()在某个时段内所允许的大访问数量(15s

    503  服务器宕机(由于超载或进行停机维护)

 

4.IIS日志各字段讲解#Fields: date time s-sitename s-computername s-ip cs-method cs-uri-stem cs-uri-query s-port cs-username c-ip cs-version cs(User-Agent) cs(Referer) cs-host sc-status sc-substatus sc-win32-status sc-bytes cs-bytes time-takendate:发出请求时候的日期。
time:发出请求时候的时间。注意:默认情况下这个时间是格林威治时间,比我们的北京时间晚8个小时,下面有说明。

s-sitename:服务名,记录当记录事件运行于客户端上的Internet服务的名称和实例的编号。
s-computername:服务器的名称。

s-ip:服务器的IP地址。

cs-method:请求中使用的HTTP方法,GET/POST

cs-uri-stemURI资源,记录做为操作目标的统一资源标识符(URI),即访问的页面文件。

cs-uri-queryURI查询,记录客户尝试执行的查询,只有动态页面需要URI查询,如果有则记录,没有则以连接符-表示。即访问网址的附带参数。

s-port:为服务配置的服务器端口号。
cs-username:用户名,访问服务器的已经过验证用户的名称,匿名用户用连接符-表示。
c-ip:客户端IP地址。

cs-version:记录客户端使用的协议版本,HTTP或者FTP

cs(User-Agent):用户代理,客户端浏览器、操作系统等情况。

cs(Referer):引用站点,即访问来源。
cs-host:记录主机头名称,没有的话以连接符-表示。注意:为网站配置的主机名可能会以不同的方式出现在日志文件中,原因是HTTP.sys使用Punycode编码格式来记录主机名。

sc-status:协议状态,记录HTTP状态代码,200表示成功,403表示没有权限,404示找不到该页面,具体说明在下面。
sc-substatus:协议子状态,记录HTTP子状态代码。
sc-win32-statusWin32状态,记录Windows状态代码。
sc-bytes:服务器发送的字节数。
cs-bytes:服务器接受的字节数。
time-taken:记录操作所花费的时间,单位是毫秒。

 

5.分析工具

 5.1 光年日志分析工具

 5.2 excel表格

 5.3爱站工具包日志分析

  日志的简单分析

  1)注意那些被频繁访问的资源

  2)注意那些你网站上不存在资源的请求。常见的扫描式攻击还包括传递恶意参数等:

3)观察搜索引擎蜘蛛的来访情况(看网站的抓取情况)

问题

  1、新站刚上线,看看搜索引擎有没有来你网站抓取了;

  2、网站收录异常,或者被k,通过日志可以了解搜索引擎是否还有来光顾你的网站;

3、对于网站的问题进行解决,必须要读懂日志;

  、基础信息

  我们从日志中能够获取哪里基础信息呢?总抓取量、停留时间(h)及访问次数这三个基础信息,可以从光年日志分析工具中统计出来。然后,通过这三个基础信息算出:平均每次抓取页数、单页抓取停留时间。然后用我们的MSSQL提取蜘蛛抓取量,根据以上的数据算出爬虫重复抓取率。

  查看搜索引擎蜘蛛爬行总次数

  一个网站的收录首先要搜索引擎蜘蛛来到网站爬去才能够实现。通过查看日志能够清楚的看到每天蜘蛛访问网站的总次数有多少,从而大致的判断网站的权重如何。一个高权重的网站,蜘蛛来访的次数相对是较多的,相反,一个低权重的网站,即使有非常庞大规模的内容,蜘蛛来访的次数依旧有限。爬行次数有限,分配的时间和深度也就有限,所以收录也就受到了限制。所以我们的重点就是多提供百度来访我们网站的入口,只有入口多了,访问次数才能得到提升。

  平均每次抓取页数=总抓取量/访问次数 单页抓取停留时间=停留时间*3600/总抓取量 爬虫重复抓取率=100%—抓取量/总抓取量

  查看爬行榜前十名的页面情况

  除了查看蜘蛛总访问次数以及爬行目录的整体情况,剩下一个非常重要的就是查看爬行总页面的情况。我平时分析网站的时候,时常会看到,被蜘蛛爬行前几名的页面都是一些无关紧要的页面,比如B2C购物车链接页面、比如联系我们页面、一些主题中CSS文件,这些页面和文件对排名和收录本来没有实际的帮助,但现实情况是蜘蛛爬行的多,所以就会造成浪费,毕竟蜘蛛来访一个网站的总时间和总爬行次数是一定的,总抓取深度也是一定的,如果时间都浪费在了这些页面上,那么对于重点的内页收录就会受到影响。因此通过日志发现之后,就需要在robots.txt中屏蔽掉,或者在页面meta中屏蔽掉。

  查看平均爬行一次的抓取深度

  通过日志查看平均一次的抓取深度能有效的了解到网站内部结构的不足。比如百度蜘蛛在某天访问网站总共818次,抓取量是978,那么平均每次抓取的页面数就为1.2页。其实这个数据也是普遍存在的现象,很多网站都存在这样的现象。这充分说明了网站的内部链接做的不足,或者网站结构存在问题,或者是内容出现了高度重复现象,导致蜘蛛来到网站,要么没有什么新发现,要么被结构所阻止,爬行不到新的页面。毕竟,蜘蛛平均在我们网站存在的整体时间是有限的,在这个有限的时间内,如果我们自己设置了障碍,那么蜘蛛就会走掉,是非常可惜的事情。

  目录抓取情况

  用MSSQL提取出爬虫抓取的目录,分析每日目录抓取量。可以很清晰的看到每个目录的抓取情况

  通过日志查看所有被爬行目录的整体情况,能让我们知道搜索引擎爬行多的目录是哪些,是否是我们想要提供给用户的目录。一般可以非常清楚的看到排名前十位的目录,如果这些目录并不是我们重点提供给用户内容的目录,那么就需要做出调整,说明当前的一些目录被多度爬行了,而真正有价值的目录没有被搜索引擎过度重视,要及时发现并找到原因。

  第二、时间段抓取

  重在分析每日的抓取情况,找到相应的抓取量较为密集的时间段,可以针对性的进行更新内容。同时,还可以看出,抓取不正常情况。服务器是否稳定,是否被攻击

  第三,IP段的抓取

  每日每个IP的抓取量,同样我们需要看整体,如果IP段没有明显的变化的话,网站升降权是没有多大问题的。因为在网站升权或者降权的时候,爬虫的IP段会更换的。

  第四,状态码的统计

  在这个之前你需要了解下,HTTP状态码返回值代表是什么。

  如果你的网站出现太多的304,那么一定会降低搜索引擎的抓取频率以及次数

  4)观察访客行为应敌之策:

  1、封杀某个IP

  2、封杀某个浏览器类型(Agent)

  3、封杀某个来源(Referer)4、防盗链

  5)文件重命名作用:

  1.对访问时间进行统计,可以得到服务器在某些时间段的访问情况。

  2.IP进行统计,可以得到用户的分布情况。

  3.对请求URL的统计,可以得到网站页面关注情况。

4.对错误请求的统计,可以更正有问题的页面。


6.日志分析思路

图片.png 

 

  代码 说明

  100 (继续) 请求者应当继续提出请求。 服务器返回此代码表示已收到请求的部分,正在等待其余部分。

  101 (切换协议) 请求者已要求服务器切换协议,服务器已确认并准备切换。

  2xx (成功)

  表示成功处理了请求的状态代码。

  代码 说明

  200 (成功