很多人认为SEO是一个没有太大偏差空间的过程。写出精彩的内容,按顺序优化页面,发送外联电子邮件,建立反向链接,洗个澡再继续重复。

然而,这只是SEO战斗的一半。如果您不小心将robots.txt设置为阻止抓取工具抓取整个网站,那么页面经过多好的搜索引擎优化并不重要。

让我们来看看搜索引擎优化技术是什么以及为什么你需要学习它,如果你想有效地优化网站。这篇文章旨在强调需要搜索引擎优化技术背景的情况,但不能作为这些情况的指导性解决方案。

什么是SEO技术?

关于“搜索引擎优化技术”的分类经常存在混淆,因为不同的人对它的理解各有不同,正所谓一千个人心中有一千个哈姆雷特。

当我在这篇博文中说“搜索引擎优化技术”时,我指的是一般定义:

搜索引擎优化技术是一种技能,可以让您说出百度网络抓取工具的语言。这是第三类SEO,不同于站内和站外搜索引擎优化。简而言之,搜索引擎优化技术是从后端角度优化网站的做法。

搜索引擎优化技术不是H1,外展和链接建设,而是处理URL结构,重定向代码,robots.txt和.htaccess文件等等。您不必是计算机科学专业就可以获得SEO技术,但您需要在服务器级别学习和试验网站。

为什么SEO技术很重要?

说实话,如果你缺乏搜索引擎优化技术知识,那么你就不是最好的搜索引擎优化师。网络营销很古怪,每天我们都会遇到需要解决的新问题,这些问题通常是模糊的。如果你不知道如何用一种批判的心态来解决问题并缩小导致问题的确切原因,那么你会发现自己处于静止状态,直到有人为你修复它。

为了真正说明搜索引擎优化技术知识的重要性,以下是一些在不了解搜索引擎优化技术的情况下无法正确解决的常见问题:

1.网站速度优化

用户需要快速,快速加载的网站。

研究表明,47%的用户希望网页在2秒或更短时间内加载,如果网站加载时间超过3秒,则有40%的用户会点击退出按钮。

那么,技术诀窍在哪里进来?转到Google的新网站测试工具,并将网站URL地址插入:

测试完成后,您将获得三个分数:移动友好性,移动速度和桌面速度。

参考:网站打开速度优化指南

2.内容重复

重复的内容会导致百度只为同一页面的多个变体编制索引,在最坏的情况下,它可能导致网站部分被惩罚甚至临时取消索引。

无论哪种方式,您都需要知道如何处理重复内容的问题,并且所有潜在的解决方案都属于搜索引擎优化技术领域,您可以通过以下方式处理重复内

在适当的页面上使用rel =“canonical”标记

使用301重定向,通过编辑.htaccess文件,将相同内容的所有版本指向单个位置。

参考:关于网站重复内容的3个思考

3.robots.txt

robots.txt文本文件用于指示搜索引擎抓取工具。

例如,如果您的网站某个区域不需要抓取和索引,则可以在robots.txt中指定,您可以禁止单个页面,整个目录甚至整个站点。

了解robots.txt的工作方式及其背后的语法非常重要,因为如果百度不抓取你的网站,搜索引擎优化是毫无意义的!

参考:Robots.txt 完整使用指南

4.XML站点地图

站点地图可用作网站的蓝图,并确保搜索引擎抓取工具在抓取时不会遗漏任何内容。虽然百度通常可以在没有站点地图的情况下找到内容,但站点地图可以确保百度的索引尽可能地反映您的实际站点。

参考:网站地图:网站为什么要添加XML站点地图?

结论

根据我的经验,练习SEO技术的最佳老师是实验。建立一个新的网站,然后随意玩它,更改robots.txt,尝模拟试抓,看看会发生什么。