搜索引擎只收录网站首页不收录内页的三大原因

这个看似很简单的问题一直困扰着很多的新手站长朋友,为什么这么说呢?因为在小编的圈里很多想建立个人博客的朋友都曾问到过我:我的网站明明每天都有文章更新,为什么过了很久搜索引擎都没有收录网站内页只收录了首页呢?今天我就给简单解析一下为什么搜索引
    这个看似很简单的问题一直困扰着很多的新手站长朋友,为什么这么说呢?因为在小编的圈里很多想建立个人博客的朋友都曾问到过我:“我的网站明明每天都有文章更新,为什么过了很久搜索引擎都没有收录网站内页只收录了首页呢?”今天我就给简单解析一下为什么搜索引擎只收录网站首页不收录内页的三大原因;也是是一点小小的SEO优化技巧吧! 

  小编认为第一个最直接的原因就是因为是新站;

  由于是新网站所以搜索引擎都有一个初审期,也就是搜索引擎对于一个新网站的判断期;以前百度算法没有更新的时候,一般对于新站的初审期一般都是1个月左右。而现在只要有规律的文章更新没有太多的采集文章,这个时间大概也就1-2个星期;记住!新站一定不要胡乱采集文章,不然别说1-2个星期不会收录内页,直接K站也是可能的。

  那么第二个原因就是robots.txt文件规则写错了;

  网上众多的个人博客开源程序都是默认自带有robots.txt文件的,而且大多数里面都默认写好了禁止搜索引擎不爬取的url路径,很多新手站长建站的过程中在robots.txt文件中误写入了禁止搜索引擎爬取网站内页的url路径;所以直接导致搜索引擎不爬取网站内页导致不收录。这个原因一般都是新手站长在摸索和学习的过程中自己胡乱修改文件造成的。如果你的网站搜索引擎没有收录内页那么就请检查一下网站根目录下的robots.txt文件吧!

  第三个原因是小编最不能忍的一个原因那就是主机服务器不稳定;

  由于现在互联网的兴起,会自己独立完成网站建设的人越来越多,所以做IDC服务器代理的人和公司也越来越多;很多新手站长由于懂得还不多,所以就会随意选择一些小的不知名的主机商购买主机服务器,虽然表面上便宜了不少钱,但得不偿失由于主机服务器的不稳定是直接导致搜索引擎抓取网页失败而不收录的重要原因。
  以上三个直接导致搜索引擎只收录网站首页不收录内页的三大原因是小编觉得最直接的3个原因,至于其他什么外链影响/同IP网站影响/文章质量低等次要原因,小编在这里就不多阐述了。
本站部分内容来源互联网,如果有图片或者内容侵犯您的权益请联系我们删除!

相关文档推荐

robots.txt写法大全和robots.txt语法的作用 1如果允许所有搜索引擎访问网站的所有部分的话 我们可以建立一个空白的文本文档,命名为robots.txt放在网站的根目录下即可。 robots.txt写法如下: User-agent: * Disallow: 或者 User-agent: * Allow: / 2如果我
最近院长收到一个非常典型的抓取优化例子,整理一下分享给各位,各位站长们谨记不要出现相同的情况: 站点反馈 : 网站主体内容都是 js 生成,针对用户访问,没有做优化;但是网站特针对爬虫抓取做了优化,直接将图片二进制内容放到了html中导致页面长度过长
自从百度站长平台开放了百度链接主动推送接口以后,很多站长都开始使用百度开放的这个主动推送接口来推送网站的最新内容,但是在使用这个推送接口的时候,大家肯定也发现了不少问题,比如推送的内容不收录、推送的链接数量 和 站长平台显示的 主动提交 数量
目前百度spider抓取新链接的途径有两个,一是主动出击发现抓取,二就是从百度站长平台的链接提交工具中获取数据,其中通过主动推送功能收上来的数据最受百度spider的欢迎。对于站长来说,如果链接很长时间不被收录,建议尝试使用主动推送功能,尤其是新网站
2016年的页面SEO已不再是简单按部就班的按条款行事了,随着搜索引擎算法的不断改进和用户搜索习惯的变化,如今的页面SEO更复杂了,那么除了传统的页面元素外,页面SEO还应该注意哪些问题呢?Moz作者Rand Fishkin为我们带来了2016年页面SEO的八大优化原则。 1
不论互联网怎么发展,传播手段如何变化,内容为王的实质不会变。很多的站长都知道自己网站文章的内容质量直接决定了搜索引擎对网站的总体排名,但真正懂得根据用户需求来做内容的站长同志却不是很多,那么如何才能做好网站内容?我个人认为各位站长应该想明白