网站的站内优化当中有一个很重要的思维逻辑,那就是组成网站的所有页面都应该当作一个独立的个体去进行优化。也就是说网站的每一个页面的seo优化可以独立的进行操作,从而让网站的页面全部成为符合搜索引擎排名规则的标准,这样网站的整体优化效果才会到位。今天小凯seo博客和朋友们分享的主题就是关于网站页面长度的因素与搜索引擎优化的关系,网站页面过长对seo有影响吗?
网站页面过长肯定是影响用户体验的,当然对搜索引擎蜘蛛的抓取也会造成一定的影响,所以网站页面的优化当中长度的把握是很重要的。近日,百度站长平台发布了一篇关于网站页面过长对搜索引擎收录的影响,小凯把这篇内转载过来,希望可以帮助朋友们更加深入的了解这个问题。
最近院长收到一个非常典型的抓取优化例子,整理一下分享给各位,各位站长们谨记不要出现相同的情况:
站点反馈:
网站主体内容都是js生成,针对用户访问,没有做优化;但是网站特针对爬虫抓取做了优化,且将图片也直接做了base64转化;然而优化后发现内容却不被百度收录
页面质量很好,还特意针对爬虫做了优化,为什么内容反而不收录了呢?
工程师分析:
1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,网站页面长度达164k;
2、 站点优化后将主体内容放于最后,图片却放于前面;
3、爬虫抓取内容后,页面内容过长被截断,已抓取部分无法识别到主体内容,最终导致页面被认定为空短而不收录。
工程师建议:
1、不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取;
2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长;
3、针对爬虫爬取做优化,请将主题内容放于前方,避免抓取截断造成的内容抓取不全。