搜索引擎对网页内容预处理规则



在做 SEO 之前,有必要了解一下搜索引擎对网页内容预处理规则

搜索引擎蜘蛛抓取的原始页面,并不会直接用于查询排名处理。 搜索引擎存有的页面数都在数万亿以上,用户输入搜索词后,靠程序实时对这么多页面分析相关性,计算量太大,不可能在一两秒内返回排名结果。 因此抓取来的页面必须经过预处理,为查询排名做好准备。

这里要讲一下预处理规则,以了解 SEO 原理。

1、提取文字

现在的搜索引擎还是以文字内容为基础。 蜘蛛抓取到的页面中的 HTML 代码,除了用户在浏览器上可以看到的可见文字外,还包含了大量的 HTML 标签、JavaScipt 代码等都是看不见的。 这些属于无法用于排名的内容。 搜索引擎预处理首先要做的就是从 HTML 文件中去除标签、JavaScipt 代码,提取出可以用于排名处理的网页面文字内容。

2、中文分词

分词是中文搜索引擎特有的步骤。 英文等语言单词与单词之间有空格分隔,搜索引擎索引程序可以直接把句子划分为单词的集合。 而中文字与字之间没有任何分隔符,搜索引擎必须分辨哪几个字组成一个词,哪些字本身就是一个词。比如“减肥方法”将被分词为“减肥”和“方法”两个词。 搜索引擎存储和处理页面以及用户搜索都是以词为基础的。 中文分词方法基本上有两种,一种是基于词典匹配,另一种是基于统计。 基于词典匹配的方法是指,将待分析的一段汉字与一个事先造好的词典中的词条进行匹配,在待分析文字串中扫描到词典中已有的词则切分出一个词。 按照扫描方向,基于词典的匹配法可以分为正向匹配和逆向匹配。按照匹配长度优先级的不同,又可以分为最大匹配和最小匹配。 将扫描方向和长度优先混合,又可以产生正向最大匹配、逆向最大匹配等不同方法。 词典匹配方法计算简单,其准确度在很大程度上取决于词典的完整性和更新情况。 基于统计的分词方法指的是分析大量文字样本,计算出字与字相邻出现的统计概率,几个字相邻出现越多,就越可能形成一个单词。 基于统计的方法的优势是对新出现的词反应更快速,也有利于消除歧义。

3、去停止词

无论是英文还是中文,页面内容中都会有一些出现频率很高,却对内容没有任何影响的词,如“的”、“地”、“得”之类的助词,“啊”、“哈”、“呀”之类的感叹词。 “从而”“以”、“却”之类的副词或介词。 这些词被称为停止词,因为它们对页面的主要意思没什么影响。英文中的常见停止词有the,a,an,to, off 等。 搜索引擎在索引页面之前会去掉这些停止词,使索引数据主题更为突出,减少无谓的计算量。

4、消除噪声

绝大部分页面上还有一部分内容对页面主题也没有什么贡献,比如版权声明文字、导航条、广告等。 以常见的博客导航为例,几乎每个博客页面上都会出现文章分类、历史存档等导航内容,但是这些页面本身与“分类”、“历史”这些词都没有任何关系。 用户搜索“历史”、“分类”这些关键词时仅仅因为页面上有这些词出现而返回博客帖子是毫无意义的,完全不相关。 所以这些区块都属于噪声,对页面主题只能起到分散作用。 搜索引擎需要识别并消除这些噪声,排名时不使用噪声内容。 消噪的基本方法是根据 HTML 标签对页面分块,区分出页头、导航、正文、页脚、广告等区域,在网站上大量重复出现的区块往往属于噪声。 对页面进行消噪后,剩下的才是页面主体内容。

5、去重

搜索引擎还需要对页面进行去重处理。 同一篇文章经常会重复出现在不同网站及同一个网站的不同网址上,搜索引擎并不喜欢这种重复性的内容。 用户搜索时,如果在前两页看到的都是来自不同网站的同一篇文章,用户体验就太差了,虽然都是内容相关的。 搜索引擎希望只返回相同文章中的一篇,所以在进行索引前还需要识别和删除重复内容,这个过程就称为“去重”。

6、特殊文件处理

除了 HTML 文件外,搜索引擎通常还能抓取和索引以文字为基础的多种文件类型,如 PDF、Word、WPS、XLS、PPT、TXT 文件等。 我们在搜索结果中也经常会看到这些文件类型。 但目前的搜索引擎还不能处理图片、视频、Flash 这类非文字内容,也不能执行 JavaScipt 脚本。 虽然搜索引擎在识别图片及从 Flash 中提取文字内容方面有些进步,不过距离直接靠读取图片、视频、Flash 内容返回结果的目标还很远。 对图片、视频内容的排名还往往是依据与之相关的文字描述。


这篇文章大部分内容引自这里


数宇信息 用心做网站。

网站建设 网站设计 网站优化 响应式 自适应 外包 API开发 接口开发 H5开发 APP开发 页面开发 SEO