搜索引擎不收录是很多站长朋友比较头疼的问题,特别是对于新站来说,收录的问题可以检测出网站优化的效果。很多时候并不是网站优化问题,而是站长朋友在seo优化的过程中出现了错误的操作而导致搜索引擎蜘蛛无法收录网站页面。在2016年9月7日针对于不收录的问题,百度站长平台发布了一篇百度官方所分析的不收录的原因(spider抓取篇),小凯把这篇内容转载过来给朋友们分享一下,正文部分如下:
目前百度spider抓取新链接的途径有两个,一是主动出击发现抓取,二就是从百度站长平台的链接提交工具中获取数据,其中通过主动推送功能“收”上来的数据最受百度spider的欢迎。对于站长来说,如果链接很长时间不被收录,建议尝试使用主动推送功能,尤其是新网站,主动推送首页数据,有利于内页数据的抓取。
那么同学们要问了,为什么我提交了数据还是迟迟在线上看不到展现呢?那涉及的因素可就多了,在spider抓取这个环节,影响线上展现的因素有:
1、网站封禁。你别笑,真的有同学一边封禁着百度蜘蛛,一边向百度狂交数据,结果当然是无法收录。
2、质量筛选。百度spider进入3.0后,对低质内容的识别上了一个新台阶,尤其是时效性内容,从抓取这个环节就开始进行质量评估筛选,过滤掉大量过度优化等页面,从内部定期数据评估看,低质网页比之前下降62%。
3、抓取失败。抓取失败的原因很多,有时你在办公室访问完全没有问题,百度spider却遇到麻烦,站点要随时注意在不同时间地点保证网站的稳定性。
4、配额限制。虽然我们正在逐步放开主动推送的抓取配额,但如果站点页面数量突然爆发式增长,还是会影响到优质链接的抓取收录,所以站点在保证访问稳定外,也要关注网站安全,防止被黑注入。
看到以上百度站长平台官方发布的对搜索引擎不收录的原因的分析,是不是感觉自己恍然大悟了。希望真正喜欢seo的朋友要多多的关注百度站长平台,因为这是官方所发布的一些搜索引擎排名算法的更新信息,这些信息对于seoer来说是至关重要的,直接可以影响到网站是否可以健康的发展。