十分时时彩_十分时时彩怎么玩_十分时时彩平台哪个好 - 十分时时彩,十分时时彩怎么玩,十分时时彩平台哪个好为网友提供全面快捷权威的综合十分时时彩,十分时时彩怎么玩,十分时时彩平台哪个好信息报道,包括新闻、国内国际要闻、体育娱乐新闻、社会生活新闻、博览会新闻、房产、汽车、健康女性、IT等多类服务

用词向量得句向量的无监督方法

  • 时间:
  • 浏览:1

       词向量技术是NLP领域中两种 基础的技术,词向量将一一个词语转换为固定维度的向量,通过处置向量关系让NLP中语义计算的任务得以实现。

       亲戚亲戚你们你们都都知道说说是由一一个个词语组成的,词向量技术之前 将单个词语转成固定维度的向量,越来越 为什么会么会在么在得到多个词语组成的说说的向量了?这是一一个好难题图片,毕竟实际环境中须要处置的文本是一一个个说说,而非一一个个词语。为了让读者了解用词向量生成句向量的具体步骤,本文将介绍如下几种词向量生成句向量的无监督学习手段,它们分别是:累加法、平均法、TF-IDF加权平均法以及SIF嵌入法。

       累加法是得到说说向量最简单的最好的措施,假设有原先一句文本:

There is no royal way to geometry.

——Euclid(欧几里得)

       这句是古希腊著名数学家欧几里得的名言,其中文意思是“通往几何并越来越 皇家大道”。NLP处置一段文本首先须要将一段文本进行去停用词处置,英语中常见的停用词有be动词、介词、连词等,经过去停用词处置后上述文本可得下面的词语距离:

       {there, no, royal, way, geometry}

       本文采用相应的词向量词典(GoogleNews-vectors-negative400.bin)和python的gensim来得到词向量,可得上述单词的如下词向量(本文篇幅有限,用5维的词向量来演示)

There [ 0.1, 0.2, 0.3, 0.4, 0.5]
No [ 0.2, 0.3, 0.4, 0.5, 0.6]
Royal [ 0.3, 0.4, 0.5, 0.6, 0.7 ]
Way [ 0.4, 0.5, 0.6, 0.7, 0.8 ]
Geometry [0.5, 0.6, 0.7, 0.8, 0.9]

       累加法的做法是将说说中所有非停用词的词向量叠加,不可能 说说有n个非停用词,则说说的词向量通过下面的手段获得:

       Vsentence = Vword1 + Vword2 + …… + Vwordn

       根据此最好的措施可不还还可以 得到” There is no royal way to geometry.“ 的说说向量为:

       Vsentence = Vthere + Vno + Vroyal + Vway + Vgeometry

                     = [ 0.1, 0.2, 0.3, 0.4, 0.5] + [ 0.2, 0.3, 0.4, 0.5, 0.6] + … + [0.5, 0.6, 0.7, 0.8, 0.9]

                     = [1.5, 2.0, 2.5, 3.0, 3.5]

       平均法和累计法最好的措施相似,同样须要将一一个说说中所有的非停用词向量叠加起来,但最后须要加叠加起来向量处以非停用词的个数。说说的词向量通过下面的手段获得:

       Vsentence = (Vword1 + Vword2 + …… + Vwordn) / n

       根据此最好的措施可不还还可以 得到” There is no royal way to geometry.“ 的说说向量为:

       Vsentence =( Vthere + Vno + Vroyal + Vway + Vgeometry) / 5

                     = ([ 0.1, 0.2, 0.3, 0.4, 0.5] + [ 0.2, 0.3, 0.4, 0.5, 0.6] + … + [0.5, 0.6, 0.7, 0.8, 0.9]) / 5

                     = [1.5, 2.0, 2.5, 3.0, 3.5] / 5

                     = [0.3, 0.4, 0.5, 0.6, 0.7]

       TF-IDF加权平均法须要利用到TF-IDF技术,TF-IDF技术是两种 常用的文本处置技术。TF-IDF模型常用评估一一个词语对于一一个文档的重要程度,突然应用于搜索技术和信息检索的领域。一一个词语TF-IDF值与它在文档中出显频数成正比,与它在语料库中出显的频率成反比。TF-IDF由TF词频(Term Frequency)和IDF逆向文件频率(Inverse Document Frequency)相乘而得。对于词语ti来说:

       其中ni,j是词语ti在我本人指在的文档j中出显频数,Σknk,j是文档j中所有所有词语对应数

之和,|D|表示训练语料库中文档的总数,| j:ti∈dj|表示训练语料库中富含词语ti的文档总数。

另外值得注意的是,不可能 词语ti都越来越语料库中越来越 (1)式中| j:ti∈dj|为0,越来越 会由于IDFj中分母为0,则无法计算出IDFj值。全都须要改进为如下:

       TF-IDF加权法不仅须要得到说说中每个非停用词的词向量,还须要得到说说中每个非停用词的TFIDF值。每个非停用词的TF每项还好计算,IDF每项就要看用户使用哪个语料库,不可能 是做query检索,越来越 IDF每项对应的语料库之前 所有query说说;不可能 是做文本自相似聚类,越来越 IDF每项对应的语料库之前 全体待分类说说。而且通过如下手段得到TF-IDF加权的的说说向量:

       Vsentence = TFIDFword1 * Vword1 + TFIDFword2 * Vword2 + …… + TFIDFwordn * Vwordn

       假设” There is no royal way to geometry.“ 是做query检索,越来越 计算IT-IDF对应的语料库之前 全体query说说。若全体query说说一共有400个; 其中400个query说说富含词语there, 6一个query说说富含词语no, 7个query说说富含词语royal, 7一个query说说富含词语way, 9个quer说说y富含词语geometry。越来越 这句话中每个非停用词的TF-IDF数如下所示:

       There: 1/(1+1+1+1+1) * log(400/(1+400) = 0.098

       No: 1/(1+1+1+1+1) * log(400/(1+65) = 0.083

       Royal: 1/(1+1+1+1+1) * log(400/(1+7) = 0.4005

       Way: 1/(1+1+1+1+1) * log(400/(1+72) = 0.629

       Geometry: 1/(1+1+1+1+1) * log(400/(1+9) = 0.4400

       全都这句话的IT-IDF加权据向量为:

       Vsentence = TFIDFthere * Vthere + TFIDFno * Vno + …… + TFIDFgeometry * Vgeometry

                     =0.098[0.1,0.2,0.3,0.4,0.5]+0.083[0.2,0.3,0.4,0.5,0.6]+…+0.4400*[0.5,0.6,0.7,0.8,0.9]

                     = [0.147, 0.166, 1.2625 , 1.887, 1.61]

       ISF加权平均法和TF-IDF加权平均法相似,ISF加权计算来源于普林斯顿大学的论文A latent variable model approach to pmi-based word embeddings. ( https://openreview.net/forum?id=Sy K00v5xx),按照论文作者说法,此最好的措施可不还还可以 很好的根据每个词词向量得到整个说说的据向量。SIF嵌入法须要利用主成分分析和每个词语的estimated probability, SIF嵌入法具体操作如下所示:



图1 SIF说说向量嵌入生成



       首先整个算法的输入有:

       (1) 每个词语的词向量

       (2) 语料库中全体说说

       (3) 可调参数a

       (4) 每个词语estimated probability

       整个算法的输出为:

       一一个说说向量

       算法的具体步骤是:

       (1) 得到初步句向量

       遍历语料库中每个说说,假设当前说说为s, 通过如下计算式子得到当前说说s的初步句向量:

\[\frac{{\rm{1}}}{{\left| s \right|}}\sum\nolimits_{w \in s} {\frac{a}{{a + p\left( w \right)}}{v_w}} \]

       即加权求平均的过程,每个词语向量乘以系数a/(a+p(w)后叠加,最后叠加向量处以说说s中词语的个数,对于可调参数a论文中作者使用0.001和0.0001一个。P(w)是词语在全体语料库中unigram probability,即词语w词频处以语料库所有词语词频之和。

       (2) 主成分计算

       全体初步句向量进行主成分分析,计算出全体初步句向量第一主成分u

       (3) 得到目标句向量

       通过如下计算时对初步句向量进行二次处置,得到目标句向量

       此论文作者也在Github上公开了源代码,感兴趣的读者可不还还可以 自行下载做实验,Github代码

       本文主要介绍了两种 无监督手段来根据词向量生成一一个说说的句向量,除了无监督手段外,实际环境中还有用到监督最好的措施来生成一一个说说向量,相似训练一一个CNN的文本分类器,取最后一一个隐藏层的输出作为说说向量,感兴趣的读者可不还还可以 google来进一步学习。

参考文献

       [1] Arora S, Liang Y, Ma T. A simple but tough-to-beat baseline for sentence embeddings[J]. 2016.