页面长度过长,也会导致不收录?

最近院长收到一个非常典型的抓取优化例子,整理一下分享给各位,各位站长们谨记不要出现相同的情况: 站点反馈 : 网站主体内容都是 js 生成,针对用户访问,没有做优化;但是网站特针对爬虫抓取做了优化,直接将图片二进制内容放到了html中导致页面长度过长

最近院长收到一个非常典型的抓取优化例子,整理一下分享给各位,各位站长们谨记不要出现相同的情况:

站点反馈

网站主体内容都是js生成,针对用户访问,没有做优化;但是网站特针对爬虫抓取做了优化,直接将图片二进制内容放到了html中导致页面长度过长;然而优化后发现内容却不被百度收录

页面质量很好,还特意针对爬虫做了优化,为什么内容反而不收录了呢?

工程师分析:

1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,网站页面长度达164k

2、 站点优化后将主体内容放于最后,图片却放于前面;

3、爬虫抓取内容后,页面内容过长被截断,已抓取部分无法识别到主体内容,最终导致页面被认定为空短而不收录。

工程师建议:

1不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取

2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长

3、针对爬虫爬取做优化,请将主体内容放于前方,避免抓取截断造成的内容抓取不全

本站部分内容来源互联网,如果有图片或者内容侵犯您的权益请联系我们删除!

相关文档推荐

小编在百度站长平台添加网站时候,提示:你无权访问该页面,点击确定按钮返回首页,如下图所示: 小编觉得很奇怪,因为之前添加了十多个网站都没有问题,百度搜了一下,也有遇到过这种问题的朋友。很多朋友说是自己的账号问题,可是我这个账户是十几年的好老
robots.txt写法大全和robots.txt语法的作用 1如果允许所有搜索引擎访问网站的所有部分的话 我们可以建立一个空白的文本文档,命名为robots.txt放在网站的根目录下即可。 robots.txt写法如下: User-agent: * Disallow: 或者 User-agent: * Allow: / 2如果我
什么是 PV :用户浏览你的网站,每次访问的页面数也叫页面浏览量或点击量(计算方法综合浏览量/独立访问次数)。 对于PV的理解: 一个访问者在24小时(0点到24点)内到底看了你网站几个页面,既同一个人浏览你网站同一个页面,不重复计算pv量,点 100次也算1次
网站的页面优化,也即网页优化是对网页的 程序、内容、版块、布局等 多方面的优化调整,使其适合搜索引擎检索,满足搜索引擎排名的指标,从而在搜索引擎检索中获得的排名提升,增强搜索引擎营销的效果使网站的产品相关的关键词能有好的排位。使网站更容易被
搜索排名,在网站运营过程中,经常会遇到一些重要页面不被收录,很多站长会绞尽脑汁去找出百度不收录的原因,殊不知搜索引擎毕竟是机器,不是人,有时候不收
搜索引擎对网页的收录是一个复杂的过程,简单来说,收录过程可以分为:抓