域名成功注册已经很长时间了,今天终于收到了百度的入网通知! ! !
尽管仅包含主页,但这是博客SEO的起点,并以此为纪念。实际上,我必须在这里吐出百度,在提交网站后的第二天,Google完全将其包含在其中...而且我已经等了很长时间了...
以下内容介绍了我如何在此过程中优化博客内容,以使SEO的抓取工具包含在我的个人博客中。
首先确定它是否被百度或Google搜索平台所包含:
使用站点:域名的方法,如上所示,如果不包含,则不包含(通常,默认情况下不包含,您需要手动提交),然后我们需要单击请点击下面的“提交”链接进入百度网站管理员或Google网站管理员工具。
百度
首先进入百度资源搜索平台(以前好像叫百度网站管理员平台,现在我改了名字,又改了子域名),然后点击下面的链接提交,如下图所示
我们首先可以去链接提交办公室提交链接,然后我们首先需要对网站管理员进行身份验证。有很多方法可以验证网站管理员的身份。由于我已经在这里进行了认证,因此不再重复。互联网上也有很多教程,您可以自己搜索。
要进入Google,您首先需要科学地浏览互联网。通常是这样。 。 。 (您可以在Chrome浏览器中使用Google Access Assistant),然后在Google中搜索Google网站站长工具,然后进入身份验证网站站长并提交链接,基本上与百度相同。
有关上述第一步中提交给百度和Google的具体方法,您可以参考CSDN上的博客:,解释非常详细。
优化博客内容并加快抓取速度
完成上述第一步后,我们要做的就是优化博客的特定内容,以便抓取工具可以更快地抓取我们的文章。
1、压缩博客的html,css,js和其他文件
如果尚未压缩这些文件,请右键单击我们博客的主页以查看源代码,然后在其中找到很多空白。当Node.js将博客文件呈现为html时,将保留这些空白。如果不进行处理,则每次处理Blog刷新请求都会导致大量无意义的呈现内容请求,因此请求速度会降低,我们可以使用gulp工具或hexo-neat工具进行压缩
请注意,只能使用两个工具之一。通常,现在有更多的gulp工具。据说hexo-neat工具有点坑,但是我个人使用hexo-neat,感觉非常好用。
([1)gulp工具
gulp工具也是一种相对易于使用的压缩工具,也非常方便。首先我们需要安装gulp插件,使用
npm install gulp --save
安装。然后继续安装gulp的其他功能模块:
gulp-htmlclean // 清理html
gulp-htmlmin // 压缩html
gulp-minify-css // 压缩css
gulp-uglify // 混淆js
您可以使用以下命令进行安装:
npm install gulp-htmlclean gulp-htmlmin gulp-minify-css gulp-uglify --save
安装,然后您可以在博客根目录中查看package.json文件,您可以看到以下内容:
安装成功,但这还不够。我们还需要在博客站点的根目录中创建gulpfile.js文件(下一个主题可以在hexo目录下的源文件夹中创建)。该文件的内容如下:
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
var gulp = require('gulp');
//Plugins模块获取
var minifycss = require('gulp-minify-css');
var uglify = require('gulp-uglify');
var htmlmin = require('gulp-htmlmin');
var htmlclean = require('gulp-htmlclean');
//压缩css
gulp.task('minify-css', function () {
return gulp.src('./public/**/*.css')
.pipe(minifycss())
.pipe(gulp.dest('./public'));
});
//压缩html
gulp.task('minify-html', function () {
return gulp.src('./public/**/*.html')
.pipe(htmlclean())
.pipe(htmlmin({
removeComments: true,
minifyJS: true,
minifyCSS: true,
minifyURLs: true,
}))
.pipe(gulp.dest('./public'))
});
//压缩js 不压缩min.js
gulp.task('minify-js', function () {
return gulp.src(['./public/**/*.js', '!./public/**/*.min.js'])
.pipe(uglify())
.pipe(gulp.dest('./public'));
});
//4.0以前的写法
//gulp.task('default', [
// 'minify-html', 'minify-css', 'minify-js'
//]);
//4.0以后的写法
// 执行 gulp 命令时执行的任务
gulp.task('default', gulp.parallel('minify-html', 'minify-css', 'minify-js', function() {
// Do something after a, b, and c are finished.
}));
然后是质量三重+一个压缩命令:hexo clean && hexo g && gulp && hexo s,您可以看到日志输出中有压缩记录。
([2)使用十六进制工具
首先安装插件
npm install hexo-neat --save
然后,我们在_config.xml的末尾添加到hexo站点的根目录下:
10
11
12
13
14
15
16
17
18
19
20
21
22
# hexo-neat
# 博文压缩
neat_enable: true
# 压缩html
neat_html:
enable: true
exclude:
# 压缩css
neat_css:
enable: true
exclude:
- '**/*.min.css'
# 压缩js
neat_js:
enable: true
mangle: true
output:
compress:
exclude:
- '**/*.min.js' # 代表已经压缩的js文件
- '**/jquery.fancybox.pack.js' # 代表不想被压缩的js文件
- '**/index.js'
据说,如果它是根据hexo-neat的官方插件文档进行配置的。 。我会发现它根本不起作用,但是我没有尝试过,但是使用它时有一些陷阱。首先,如果将博客图片放置在与文章具有相同文件名的文件夹中,则这种图片将完全无效。最好使用第三方图像平台放置我们的博客图像,这将加快加载速度。然后,配置的各种自定义组件的js文件将无效。例如,当您仔细单击js文件时,可以将love.js文件放在上面的压缩排除项下,即:
10
11
# 压缩js
neat_js:
enable: true
mangle: true
output:
compress:
exclude:
- '**/*.min.js' # 代表已经压缩的js文件
- '**/jquery.fancybox.pack.js' # 代表不想被压缩的js文件
- '**/love.js' # 表示排除压缩鼠标点击出现小心心的文件
- '**/index.js'
类似地,如果其他js文件消失了,只需将它们添加到上面的exclude下。
此外,压缩html时不要跳过.md文件,压缩html时不要跳过.swig文件,否则压缩文件基本上处于无效状态。
2、优化文章链接
我们知道hexo博客的默认文章链接格式为permalink::year /:month /:day /:title /,即使以后将其更改为permalink::title /,实际上也不适合SEO优化,为什么?
因为SEO搜寻器认为是最佳路径,并且较容易爬上的路径是从首页被点击少于3次的路径,例如本文中的链接:小于三级路径的url更容易被抓取器抓取,即使我们将其更改为permalink::title /形式,但是由于我们自己的博客标题为中文,因此URL编码后的字符串太长不利于爬行,因为中文链接位于百度和Google中。权重非常低。
因此,为了使搜寻器更好地包含我们的博客文章,我们需要使用一些工具来轻松生成不会引起URL转码的简短永久链接。在这里,您可以使用hexo-abbrlink插件。
此插件的基本思想是将MD5标题+时间,然后将其转换为BASE64,并保存在最前面。这可以使文章链接唯一且永久,并且,如果要将某些标题更改为相应的英文标题,还可以将元数据abbrlink生成的链接更改为博客的markdown文件中的相应英语。有用。方便!
安装插件:
npm install hexo-abbrlink --save
然后按如下所示修改hexo站点配置文件_config.xml中的永久链接:
permalink: :posts/abbrlink # 此处可以自己设置,也可以直接使用 :/abbrlink
abbrlink:
alg: crc32 #算法: crc16(default) and crc32
rep: hex#进制: dec(default) and hex
插件的Github地址如下:
hexo-abbrlink的Github地址
其他设置
完成上述基本配置后,我们需要做的就是不断更新个人博客内容,尤其是最好的原始内容更新方式,因为百度爬虫会使用各种算法来确定爬虫最喜欢原始内容。内容的可用性,原创性越高,被包含的内容越容易,因此最好将原始博客保留三天〜,然后尽可能多地更新博客内容,因为更新越多,越容易这是为了吸引爬行者反复访问。只是更快。