当前位置: 首页 >> 网站优化
 
 

页面长度过长,也会导致不收录?

来源:     时间:2017-06-16     浏览:  

最近院长收到一个非常典型的抓取优化例子,整理一下分享给各位,各位站长们谨记不要出现相同的情况:

站点反馈

网站主体内容都是js生成,针对用户访问,没有做优化;但是网站特针对爬虫抓取做了优化,且将图片也直接做了base64转化;然而优化后发现内容却不被百度收录

页面质量很好,还特意针对爬虫做了优化,为什么内容反而不收录了呢?

工程师分析:

1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,网站页面长度达164k

2、 站点优化后将主体内容放于最后,图片却放于前面;

3、爬虫抓取内容后,页面内容过长被截断,已抓取部分无法识别到主体内容,最终导致页面被认定为空短而不收录。

工程师建议:

1不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取

2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长

3、针对爬虫爬取做优化,请将主题内容放于前方,避免抓取截断造成的内容抓取不全

金翼网络友情提示:此文章为百度站长平台官方发布,需要提高重视程度!也告诉大家,尽量不要用js来生成网页内容。得不偿失,利大于弊。
还是老老实实的做原创文章来的实在。

 
  • 联系我们

  • 邮箱:794421925@qq.com
  • 电话:13832367531
  • Q Q:794421925 点击交谈
  • 地址:石家庄市桥西区芳馨家园六号楼底商
  • 淘宝店铺金翼网络淘宝店铺

Copyright © 2008-2020 石家庄捷搜网络科技有限公司 版权所有 备案号:冀ICP备16025780号-1