网站错误的使用robots该怎么办
发布时间:2023-07-07 00:00:00 编辑:郑州seo研究中心
在我们开始做SEO优化的时候,就已经认识到一些网站特殊的属性的应用,比如robots.txt、nofollow标签、h标签等等一类的,而robots.txt文件在网站优化也是很重要,同时又是很容易被忽视的一个细节。很多站长在优化过程中过于忽视或者错误的设置了robots.txt文件而造成了很多不必要的损失。那么在网站错误的使用了robots该怎么办呢?是否有挽回办法呢?今天就有我凭借自身的经验来为大家分享一下我的观点。
首先要说起我在做这个博客的时候,刚开始建设的时候。我直接是网站上线状态安装修改的,因为之前有一定了解,所以我首先给网站添加了一个robots.txt文件,以此方式在防止在网站没有完全修改好的情况下被百度抓取到测试改版的页面。
网站修改了大概半个月的时间,正式上线了,因为之前填充了足够的内容,相信百度很快就会收录,因为一些其他的工作,也没有即是的关注博客百度的收录情况,大概这样过了三天的样子,我满怀喜悦的通过站长工具去查看百度收录的状况,当看到收录为0的时候整个人瞬间都不好了。因为网站填充了很多文章,按照这样的方法应该上线不久就会有很多收录的。而且文章都是我原创的,相信应该不会是被百度判定为重复过高的内容或者垃圾内容了,这个时候我马上查看网站日志,奇迹的一幕发生了,居然没有蜘蛛来访问。
通过分析我首先把实现锁定了robots.txt的设置上,虽然说在网站正式上线的时候我解除了robots的禁止抓取设置,但是百度因为我网站长时间处于禁止抓取状态,蜘蛛抓取网站的频率从而大大的减少,也就是原来一天抓取N次,现在变成可能N天才抓取一次。
找到问题就要想处理办法:
- 修改robots封禁为允许,然后到百度站长后台检测并更新robots。
- 在百度站长后台抓取检测,触发蜘蛛抓取站点。
- 将百度站长后台的抓取频次申请上调。
- 更新sitemap网站地图,并手工提交到百度。
- 百度站长后台链接提交处设置数据主动推送。
- 发布外链将引蜘蛛爬行文章页面,如何建设外链在我另一篇文章()
郑州SEO点评:
通过以上的办法处理,剩下的就是更新内容与等待收录了,庆幸的是在两天后,网站的收录开始慢慢增加,吊着的小心脏终于落下来了。通过上面的问题提醒大家,robots一定要合理的使用,否则会对网站造成不必要的损失。
未经允许不得转载: »
5推荐阅读
- 1暂缓上市,网易云音乐为何不被看好?
- 2在网站seo中如何通过博客做高质量的外链?
- 3短视频营销主要用于哪些场景?
- 4短视频营销有哪些特点?
- 5短视频用于哪些场景?
- 6新网站优化需要注意哪些问题
- 7SEO做外链好辛苦,网站可以用自动发布外链工具
- 8新手SEO需要知道的四个免费外链来源
- 9郑州seo研究中心:如何分析网站的外链来源
- 10郑州seo研究中心:网站优化中怎么样找到优质的
- 11百度搜索引擎seo优化指南2.0
- 12链接买卖有用吗?危害是什么?
- 13外链的使用案例(三):社交媒体的外链综合运用实
- 14外链的使用(二):论坛社区的外链实例
- 15外链案例(一):B2B信息平台外链综合运用实例
最新文章
- 1如何提高网站加载速度?
- 2信阳seo中的外部链接如何做才能更符合SEO规则?
- 3网站SEO中的自媒体平台是什么?
- 4网站优化中关键词选择的技巧和策略有哪些?
- 5在商丘网站优化SEO中,关键词优化有哪些技巧?
- 6河南网站优化seo中的百度快照怎么做?
- 7robots.txt文件如何编写和使用?
- 8服务器稳定性对SEO有什么影响?
- 9爬虫在南阳seo有什么用?
- 10河南网站优化网站有哪些SEO实用工具推荐
- 11郑州网站优化seo中的软文推广如何做才能更符合SEO规则?
- 12许昌SEO技术中的导航规范怎么操作?
- 13如何避免百度SEO优化中的常见误区?
- 14seo中如何提升权重?
- 15网络推广如何提升流量?