当前位置:首页文章笔记建站教程网站不想被百度等搜索引擎抓取应该怎么暂时屏蔽?

网站不想被百度等搜索引擎抓取应该怎么暂时屏蔽?

有些站长比较喜欢将站点上线测试(不喜欢在本地测试),但是又不想被百度等搜索引擎抓取,那么应该怎么暂时屏蔽呢?今天就跟大家简单介绍几种方法。

方法一:

WordPress 站点可以直接登录站点后台 >> 设置 >> 阅读 >> 勾选“建议搜索引擎不索引本站点”并点击【保存更改】即可。
网站不想被百度等搜索引擎抓取应该怎么暂时屏蔽?

方法二:

直接在网站根目录中新建一个 robots.txt 文件,然后在文件中添加以下代码:

  1. UserAgent: *
  2. Disallow: /

方法三:

通过 noindex 标记来禁止,直接在站点的头文件 header.php 文件中添加以下代码:

  1. <meta name="robots" content="noindex" >

方法四:

通过 PHP 代码禁止(WordPress 站点为例),将以下代码添加到主题目录的 functions.php 当中:

  1. ob_start("Deny_Spider_Advanced");
  2. function Deny_Spider_Advanced() {
  3. $UA = $_SERVER[‘HTTP_USER_AGENT’];
  4. $Spider_UA = ‘/(spider|bot|)/i’; //定义需要禁止的蜘蛛 UA,一般是 spider 和 bot
  5. //如果检测到 UA 不为空而且发现是蜘蛛则返回 404
  6. if($UA && preg_match_all($Spider_UA,$UA)) {
  7. header(‘HTTP/1.1 403 Forbidden’);
  8. header("status: 403 Forbidden");
  9. }
  10. }

可以自行替换或添加以上的 spider|bot,多个用|隔开即可。

方法五:

Nginx 禁止,在 server{}中添加以下代码:

  1. #如果抓取的 UA 中含有 spider 或 bot 时返回 403
  2. if ($http_user_agent ~* "spider|bot") {
  3. return 403; #如果是删除已收录的,则可以返回 404
  4. break;

可以自行替换或添加以上的 spider|bot,多个用|隔开即可。

方法六:

Apache 禁止,在.htaccess 中添加以下代码:

  1. RewriteEngine On
  2. RewriteCond %{HTTP_USER_AGENT} (^$|spider|bot) [NC]
  3. RewriteRule ^(.*)$ [F]

可以自行替换或添加以上的 spider|bot,多个用|隔开即可。

总结

理论上以上 6 种方法都有效,建议找适合自己站点的一种办法来使用即可。一般采用方法二比较普遍,如果能够结合方法五或六来使用估计效果更佳。

温馨提示:

文章标题:网站不想被百度等搜索引擎抓取应该怎么暂时屏蔽?

文章链接:https://www.wuyanshuo.cn/733.html

更新时间:2022年04月13日

本站大部分内容均收集于网络!若内容若侵犯到您的权益,请发送邮件至:service@wuyanshuo.cn我们将第一时间处理! 资源所需价格并非资源售卖价格,是收集、整理、编辑详情以及本站运营的适当补贴,并且本站不提供任何免费技术支持。 所有资源仅限于参考和学习,版权归原作者所有,更多请阅读无言说网络服务协议

给TA打赏
共{{data.count}}人
人已打赏
建站教程

WordPress前端使用跟后台的Dashicons图标字体?

2022-4-13 17:08:34

建站教程

如何为WordPress文章浏览数(阅读量)增加一个基数?

2022-4-13 20:20:19

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索
'