|
空间不稳定就意味着网站的爬取不稳定,网站不稳定对于网站优化来说就是一种灾难。那么今天我来告诉你该怎么做
为什么说空间非常重要
先介绍一下百度爬虫是如何抓取你的网站,
什么叫爬虫(爬虫是一种依靠网址,爬取所在网站的页面的程序我们称之为爬虫)
爬虫是依靠网址,下载这个网站的页面的程序,将页面上的所有连接,进行统计(内链 外链)进行再次爬取。下载的页面是TXT文本的形式进行保存到他的服务器。(不下载css)
搜索引擎的爬虫(百度的爬虫叫蜘蛛,谷歌的爬虫叫做机器人)
网站收录是分为两个过程
1、先通过爬取到某个网页,(你提交给搜索引擎的链接)爬取收集的链接,爬到你网页并且下载该网页,下载后上传到百度自己的服务器
2、 缓存服务器(快照) SITE服务器(收录) 索引列表服务器(排名)
网站数据有时候没有进行同步,是因为服务器没有进行同步
为什么空间不稳定会影响网站排名
为什么说空间不稳定,会导致网站受到严重的影响呢,因为蜘蛛爬虫是模拟用户的行为习惯的,当他抓取你网站上的网页的时候,发现有数据的丢失,或者经常打不开你的网站会抓不到,那么你的网站信用度就会大打折扣,如果长期的打不开,那就会对网站排名造成直接负面性的影响,所以服务器的稳定性很重要
那么我们应该如何来预防呢?
一定要进行网站备份(网页数据文件和数据库文件打包)文件全部要打包,数据也要进行打包。
如果经常更新一周备份一次,如果一两个月更新一次,那就一两个月备份一次,备份频率根据网站更新程度调整。如果一年更新一次,那就是一个垃圾站。你可以不吃饭,可以不睡觉,但是网站不能不备份。因为常在江湖漂。哪有不挨刀
网站一定要备案,如果网站受到攻击或者入侵,或者网站被挂马,网站如果没有备案那就忧伤了。
如果你的网页很多,你是很难找到那个木马的。即便是你把首页上的非链接全部都删了,他又会来挂你的。你的页面如果有几百个或上千个还好,如果有上万或者上十万个,那么你就蛋疼了,因为他隐藏起来了你很难找到他。
如果有数据备份就不怕了,我管你隐不隐藏,直接把所有数据强制性进行清空,然后半个小时把数据进行导入,全盘都恢复了。这时候整个世界都明朗了。然后,把FTP密码改了。把空间控制面板的密码改了,把网站后台的密码改了。然后做好文件夹禁止写入的权限,重要的文件夹比如后台文件夹。
我们的模板一定是修改好在进行上传的,不要让模板可以在后台修改功能。不要养成后台改模板的习惯,网站模板必须改好上传,而不可以后台更改。 如果后台密码丢失,那么就忧伤了。
要做的事情:禁止文件夹写入权限
FTP点击文件夹的属性 设置为 555(禁止写入)(777允许写入)
FTP密码设置的变态一点。(复杂这样很难破解)密码记得保存
以上是常规的一个解决方式
网站空间打开速度问题:
如果空间打开速度总是很慢,打开速度经常超过6秒那就麻烦了
1、空间服务器问题
如果不是网站速度很慢,那就是空间问题,网站打开速度经常定期的进行检查。(利用同学、朋友、QQ群好友来检查,让他们来点击一下。测试速度。)如果经常有问题就换个空间
2、页面图片问题(图片太多,太大或高清的,一定要进行压缩。能不用图片的就不要用,图片最好不要超过50KB,轮展图不要太多不要把用户当傻蛋,一般3张是最健康的。
3、JS代码不要放太多,放的太多,打开越慢JS能不用就不要用,每打开一个JS都是要占用一定时间。导致网站打开速度慢,调用一但出现问题,就是一个大问题,
空间转移注意要点:
1、先把数据进行打包(网页文件,数据库)
2、先进行全国测试,利用好友、群内伙伴进行测试最靠谱,哪个地区的伙伴都有
3、先不要进行解析,启用二级域名或者空间商送的三级域名进行调试。
4、进行域名解析、域名解析最好在用户访问时间访问量最少的时间解析。(可以看统计)因为在用户访问最多的时候,可能会导致损失部分用户,或搜索引擎蜘蛛抓取最频繁的时候就悲剧了
5、解析域名之后原空间的数据要保持24小时稳定,而且不能关闭也不能清除,因为DNS解析的全球生效时间是5分钟到24小时,每个省份的DNS解析的时间也是不同,而且很多人或很多的老用户还存有原来IP的缓存。有的时候蜘蛛也是含有缓存的,所有访问的还是原来的IP站点。
如何选择合理的空间:
1、要支持伪静态的空间
2、最好能够提供IIS日志查询(IIS有什么用)IIS日志最好能够每个小时生成一份(一天生成一份文件太大)
3、最好支持PHP MYSQL数据库的空间(现在网站多数是PHP MYSQL程序)
4、最好支持文件在线解压缩功能
5、要支持301转向(永久资源重定向)和404页面绑定。
6、最好不限制IIS并发数
7、有问题技术能够在12小时左右解决。
|
|