百度搜索引擎无法正确抓取wordpress的robots.txt文件

2020-09-12 数据后台 网站运营

最近一直在研究SEO首页引擎优化方案,发现wordpress自动生成的robots.txt文件百度无法正确识别。不明原因的我采取了最笨的方法,新建了一个文件放置在了网站的根目录。

针对wordpress的软件,robots.txt写法有点不同,我结合了大家的意见编写了如下文件。

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /feed/
Disallow: /trackback/
Disallow: /wp-content/
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-
Allow: /wp-content/uploads/
Sitemap: https://www.rujue.cn/sitemap.xml
Sitemap: https://www.rujue.cn/sitemap-news.xml

这是wordpress软件安装在根目录的做法,最后的两行大家改成自己的xml文件即可,完成更新后提交给百度资源平台即可。

称呼
邮箱
网站