乐读窝

搜索引擎优化魔法书

乐读窝 > 科幻小说 > 搜索引擎优化魔法书

第26章

书籍名:《搜索引擎优化魔法书》    作者:姚志国


                                    对于搜索引擎来说,最重要的并不是找到所有结

        果,因为在上百亿的网页中找到所有结果没有太多的意义,没有人能看得完,最重要的是把

        最相关的结果排在最前面,这也称为相关度排序。中文分词的准确与否,常常直接影响到对

        搜索结果的相关度排序。在现有三个中文搜索引擎上做测试,测试方法是直接在  Google

        (http://google  )、百度(http://baidu  )、中搜(http://zhongsou  )

        上以“和服”为关键词进行搜索:

        在  Google  上输入“和服”搜索所有中文简体网页,总共结果  507,000  条,前

        20  条结果中有  14  条与和服一点关系都没有。在第一页就有以下错误:

        “通信信息报:瑞星以技术和服务开拓网络安全市场”

        “使用纯  HTML  的通用数据管理和服务-  开发者-  ZDNet  ...”

        “陈慧琳《心口不一》化妆和服装自己包办”

        “::外交部:中国境外领事保护和服务指南(2003  年版)  ...”

        “产品和服务”

        等等。第一页只有三篇是真正在讲“和服”的结果。

        在百度上输入“和服”搜索网页,总共结果为  287,000  条,前20  条结果中有

        6  条与和服一点关系都没有。在第一页有以下错误:

        “福建省晋江市恒和服装有限公司系独资企业”

        “关于商品和服务实行明码标价的规定”

        “青岛东和服装设备”

        在中搜上输入“和服”搜索网页,总共结果为  26,917  条,前  20  条结果都是

        与和服相关的网页。

        这次搜索引擎结果中的错误,就是由于分词的不准确所造成的。Google                                                      的中文分词技

        术采用的是美国Basis  Technology    (http://basistech  )公司提供的中文分词技术,百

        度使用的是自己公司开发的分词技术,中搜使用的是国内海量科技(http://hylanda)

        提供的分词技术。由此可见,中文分词的准确度,对搜索引擎结果相关性和准确性有相当大

        的关系。

        三、中文分词技术

        中文分词技术属于自然语言处理技术范畴,对于一句话,人可以通过自己的知识来明白

        哪些是词,哪些不是词,但如何让计算机也能理解?其处理过程就是分词算法。

        现有的分词算法可分为三大类:基于字符串匹配的分词方法、基于理解的分词方法和基

        于统计的分词方法。

        1、基于字符串匹配的分词方法

        这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与一个“充分大

        的”机器词典中的词条进行匹配,若在词典中找到某个字符串,则匹配成功(识别出一个词)。

        第  51  页

        -----------------------  Page  60-----------------------

        搜索引擎优化魔法书  SEO  Magic  Book    浩维互动免费电子书  timev

        按照扫描方向的不同,字符串匹配分词方法可以分为正向匹配和逆向匹配;按照不同长度优

        先匹配的情况,可以分为最大(最长)匹配和最小(最短)匹配;按照是否与词性标注过程

        相结合,又可以分为单纯分词方法和分词与标注相结合的一体化方法。常用的几种机械分词

        方法如下:

        正向最大匹配法(由左到右的方向);

        逆向最大匹配法(由右到左的方向);

        最少切分(使每一句中切出的词数最小)。

        还可以将上述各种方法相互组合,例如,可以将正向最大匹配方法和逆向最大匹配方法

        结合起来构成双向匹配法。由于汉语单字成词的特点,正向最小匹配和逆向最小匹配一般很

        少使用。一般说来,逆向匹配的切分精度略高于正向匹配,遇到的歧义现象也较少。统计结

        果表明,单纯使用正向最大匹配的错误率为  1/169,单纯使用逆向最大匹配的错误率为

        1/245。但这种精度还远远不能满足实际的需要。实际使用的分词系统,都是把机械分词作

        为一种初分手段,还需通过利用各种其它的语言信息来进一步提高切分的准确率。

        一种方法是改进扫描方式,称为特征扫描或标志切分,优先在待分析字符串中识别和切

        分出一些带有明显特征的词,以这些词作为断点,可将原字符串分为较小的串再来进行机械

        分词,从而减少匹配的错误率。另一种方法是将分词和词类标注结合起来,利用丰富的词类

        信息对分词决策提供帮助,并且在标注过程中又反过来对分词结果进行检验、调整,从而极

        大地提高切分的准确率。

        对于机械分词方法,可以建立一个一般的模型,在这方面有专业的学术论文,这里不做

        详细论述。

        2、基于理解的分词方法

        这种分词方法是通过让计算机模拟人对句子的理解,达到识别词的效果。其基本思想就

        是在分词的同时进行句法、语义分析,利用句法信息和语义信息来处理歧义现象。它通常包

        括三个部分:分词子系统、句法语义子系统、总控部分。在总控部分的协调下,分词子系统

        可以获得有关词、句子等的句法和语义信息来对分词歧义进行判断,即它模拟了人对句子的

        理解过程。这种分词方法需要使用大量的语言知识和信息。由于汉语语言知识的笼统、复杂
        性,难以将各种语言信息组织成机器可直接读取的形式,因此目前基于理解的分词系统还处

        在试验阶段。

        3、基于统计的分词方法

        从形式上看,词是稳定的字的组合,因此在上下文中,相邻的字同时出现的次数越多,

        就越有可能构成一个词。因此字与字相邻共现的频率或概率能够较好的反映成词的可信度。

        可以对语料中相邻共现的各个字的组合的频度进行统计,计算它们的互现信息。定义两个字

        的互现信息,计算两个汉字X、Y  的相邻共现概率。互现信息体现了汉字之间结合关系的紧

        密程度。当紧密程度高于某一个阈值时,便可认为此字组可能构成了一个词。这种方法只需

        对语料中的字组频度进行统计,不需要切分词典,因而又叫做无词典分词法或统计取词方法。

        但这种方法也有一定的局限性,会经常抽出一些共现频度高、但并不是词的常用字组,例如

        “这一”、“之一”、“有的”、“我的”、“许多的”等,并且对常用词的识别精度差,时空开销

        大。实际应用的统计分词系统都要使用一部基本的分词词典(常用词词典)进行串匹配分词,

        同时使用统计方法识别一些新的词,即将串频统计和串匹配结合起来,既发挥匹配分词切分

        第  52  页

        -----------------------  Page  61-----------------------

        搜索引擎优化魔法书  SEO  Magic  Book    浩维互动免费电子书  timev

        速度快、效率高的特点,又利用了无词典分词结合上下文识别生词、自动消除歧义的优点。

        到底哪种分词算法的准确度更高,目前并无定论。对于任何一个成熟的分词系统来说,

        不可能单独依靠某一种算法来实现,都需要综合不同的算法。比如,海量科技的分词算法就

        采用“复方分词法”。所谓复方,相当于用中药中的复方概念,即用不同的药才综合起来去

        医治疾病,同样,对于中文词的识别,需要多种算法来处理不同的问题。