瀚域博客资源下载说明

WordPress博客通过纯代码实现搜索引擎蜘蛛爬行记录

释放双眼,带上耳机,听听看~!

前言

WordPress有众多的拓展插件,通过插件可以实现记录搜索引擎蜘蛛爬行记录的功能,有了蜘蛛的爬行记录,我们可以更准确的分析蜘蛛喜欢哪些文章,蜘蛛的抓取频次,有了这些数据,我们可以更有针对性的优化网站,今天,瀚域博客就分享一个教程,教大家如何使用纯代码实现记录蜘蛛爬行记录。

操作方法

在当前使用主题的functions.php文件中,添加以下代码

//瀚域博客 原文链接:www.whzfx.com/4799.html
function get_naps_bot(){
$useragent = strtolower($_SERVER['HTTP_USER_AGENT']);
if (strpos($useragent, 'googlebot') !== false){
return 'Googlebot';
}
if (strpos($useragent, 'msnbot') !== false){
return 'MSNbot';
}
if (strpos($useragent, 'slurp') !== false){
return 'Yahoobot';
}
if (strpos($useragent, 'baiduspider') !== false){
return 'Baiduspider';
}
if (strpos($useragent, 'sohu-search') !== false){
return 'Sohubot';
}
if (strpos($useragent, 'lycos') !== false){
return 'Lycos';
}
if (strpos($useragent, 'robozilla') !== false){
return 'Robozilla';
}
return false;
}
function nowtime(){
date_default_timezone_set('Asia/Shanghai');
$date=date("Y-m-d.G:i:s");
return $date;
}
$searchbot = get_naps_bot();
if ($searchbot) {
$tlc_thispage = addslashes($_SERVER['HTTP_USER_AGENT']);
$url=$_SERVER['HTTP_REFERER'];
$file="robotslogs.txt";
$time=nowtime();
$data=fopen($file,"a");
$PR="$_SERVER[REQUEST_URI]";
fwrite($data,"Time:$time robot:$searchbot URL:$tlc_thispage\n page:$PR\r\n");
fclose($data);
}

上述代码添加完毕后,会在网站根目录自动创建一个文件名为robotslogs.txt的文件,将这个文件的权限设置为777可读可写,过一段时间直接通过浏览器访问这个文件,就可以看见蜘蛛的爬行记录了。

人已赞赏
WordPress教程

WordPress实现删除文章时同步删除媒体库内的相关附件

2020-6-11 22:48:07

WordPress教程

WordPress博客纯代码实现精确文章搜索结果

2020-6-18 23:07:53

⚠️
免责声明:所有资源请在下载后24小时之内自觉删除,若作商业用途,请购买正版,由于未及时购买正版等相关问题发生的侵权行为,均与本站无关!请用户根据二○一三年一月三十日《计算机软件保护条例》2次修订第17条规定来研究资源!
0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索
(function(){ var src = "https://jspassport.ssl.qhimg.com/11.0.1.js?d182b3f28525f2db83acfaaf6e696dba"; document.write(''); })();