禁止搜索引擎抓取后会有什么效果呢?给大家发张禁止搜索引擎抓取网站的搜索结果截图:大家可以看到,描述没有被抓取到,而是有句提示:由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取)。
 

 

    系统无法提供该页面的内容描述所以禁止搜索引擎收录其实是通过robots.txt文件来控制的百度官方对robots.txt的解释是这样的:Robots是站点与spider沟通的重要渠道,站点通过robots文件声明本网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。

 

    9月11日,百度搜索robots全新升级。升级后robots将优化对网站视频URL收录抓取情况。仅当您的网站包含不希望被视频搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

 

    如您的网站未设置robots协议,百度搜索对网站视频URL的收录将包含视频播放页URL,及页面中的视频文件、视频周边文本等信息,搜索对已收录的短视频资源将对用户呈现为视频极速体验页。此外,综艺影视类长视频,搜索引擎仅收录页面URL.

评论关闭

分享到:

【熊掌网络】

我的微信号:xxx (左侧二维码扫一扫)欢迎添加!

行业门户网站SEO操作规范大纲