AIPM要知道的NLP知识(1):词的表达

访客4年前关于黑客接单595

编辑导语:NLP为Neuro-Linguistic Programming的缩写,是研究思维、语言和行为中的纪律;这是一种对优秀(excellence)举办编码和复制的 *** ,它能使你不绝到达你和你的公司想要的功效;本文是作者关于NLP常识中词的表达的分享,我们一起来看一下。

AIPM要知道的NLP常识(1):词的表达

小我私家认为pm懂一点技能长处是大大的有。

总结这个系列,把NLP相关的常见模子举办了梳理,分为词的表达、RNN、seq2seq、transformer和bert五个部门。

根基的想法是重点领略模子是什么(what)、为什么要用这种模子(why)以及哪些场景中可以用这种模子(where),至于如何实现模子(how)可以留给RD小哥哥们。

一、词的表达

要知道计较机是看不懂人类语言的,要想让呆板领略语言、实现自然语言处理惩罚,之一步就是把自然语言转化成计较机语言——数字。

由于词是人类语言表达时的一种根基单元(虽然更细的单元是字可能字母),NLP处理惩罚的时候很自然的想要用一组特定的数字代表一个特定的词,这就是词的表达,把这些暗示词的数字连起来就可以表达一句话、一篇文章了。

这一part里有许多常见的名词,distributed representation、word embedding、word2vec等等,它们的干系或许是这样的:

AIPM要知道的NLP常识(1):词的表达

1. one-hot representation v.s. distributed representation

表达 *** ,我以为就是自然语言到呆板语言怎么转化的一套法则;好比“我”这个词转化到呆板语言应该用“1”照旧“100”暗示呢?并且呆板语言中代表“我”的这个数还不能和代表其他词的数反复吧,必需是一个独一的id。

顺着id这个思路,假设我们的辞书收录了10个词,那么我们就给辞书里的每一个词分派一个独一的id;词暗示的时候用一个和字典一样长的向量暗示,这个向量里只有id这一位为1,其他位都为0;好比说abandon这个词的id是1,那么就暗示成abandon=[1 0 0 0 0 0 0 0 0 0],这就是one-hot representation。

这种暗示好领略,可是也有问题:

问题一:向量会跟着字典变大而变大。

很明明假如我的辞书有100000个词的话,每一个词都要用长度100000的向量暗示;假如一句话有20个词,那么就是一个100000*20的矩阵了,按这种操纵根基就走远了。

别的一个问题是这种暗示不能浮现语义的相关性。

好比香蕉和苹果在人看来长短常雷同的,可是用one-hot暗示香蕉大概是[1,0,0,0,0],苹果大概是[0,0,1,0,0],之间没有任何相关性;这样的话假如我们用“我吃了香蕉”练习模子,功效模子大概并不能领略“我吃了苹果”,泛化本领就很差。

于是机警的大佬们提出了一个假说,就是distributed hypothesis:词的语义由其上下文抉择。

基于这种假说生成的暗示就叫做distributed representation,用在词暗示时也就是word embedding,中文名有词向量、词嵌入;所以distributed representation≈word embedding,因为现阶段主流的nlp处理惩罚多半是基于词的,虽然也有对字、句子、甚至文章举办embedding的,所以不能说完全完全相等。

至于详细如何基于这种假说实现词暗示,按照模子差异可以分成基于矩阵(GloVe)、基于聚类、基于神经 *** (NNLM、Word2Vec等)的要领。

2. word embedding

小我私家领略,从字面意思上看word embedding就是把一个one-hot这样的稀疏矩阵映射成一个更浓密的矩阵;好比上边栗子中abandon用one-hot(辞书巨细为10)暗示为[1 0 0 0 0 0 0 0 0 0];但word embedding大概用维度为2的向量[0.4 0.5]就可以暗示;办理了前边说的one-hot的维渡过大问题,还增大了信息熵,所以word embedding暗示信息的效率要高于one-hot。

但词向量这个名字没有浮现出它暗示语义的本质,所以之一次看到很容易会不知所云;为了说明word embedding可以浮现语义,这时候就可以搬出著名的queen、king、woman、man的栗子了。

(图来自Andrew Ng deeplearning.ai)

AIPM要知道的NLP常识(1):词的表达

上图是通过练习得出的词向量,man=[-1 0.01 0.03 0.09],woman=[1 0.02 0.02 0.01],king=[-0.95 0.93 0.70 0.02],queen=[0.97 0.95 0.69 0.01]。

矩阵相减man-woman=[-2 -0.01 0.01 0.08],king-queen=[-1.92 -0.02 0.01 0.01],两个差值很是临近,可能说两个向量的夹角很小,可以领略为man和woman之间的干系与king和queen之间很是临近;而apple-orange=[-0.01 -0.01 0.05 -0.02]就和man-woman、king-queen相差很大。

AIPM要知道的NLP常识(1):词的表达

很有意思的是最初word embedding其实是为了练习NNLM(Neural Network Language Model)获得的副产物。

标签: 1年NLP低级

相关文章

视频号:半封闭状态下的关系链产品

视频号:半封闭状态下的关系链产品

编辑导读:由于背靠微信,视频号从降生起,就被预言会是下一个风口。可是至今为止,视频号表示得并不如各人期望的那样抱负。为什么会产生这种环境?视频号存在哪些问题?本文作者从两个方面临以上问题展开了阐明解读...

一个“四两拨千斤”的品牌IP化案例,简单到大多数企业都想不到

一个“四两拨千斤”的品牌IP化案例,简单到大多数企业都想不到

编辑导读:每一个品牌都想把本身打造成一个IP,可是开拓IP并不是容易的事,往往淹灭了许多精神和时间还不能到达预期结果。本文将以美团的“袋鼠耳朵”作为切入点,分享一个“四两拨千斤”的步伐,但愿对你有辅佐...

价值维思考模型在技术性需求中的应用

价值维思考模型在技术性需求中的应用

真正的产物,是满意用户需求痛点、给用户缔造快感,可能本钱节省带来的感觉。这种感觉既可感知,也有大概不行直接感知。 产物司理到底要不要懂技能,是否技能身世的产物司理必然更有优势呢? 对付这个问题的探讨...

关于阅读型网页设计,这几点你要注意

关于阅读型网页设计,这几点你要注意

互联网的高速成长使得我们天天花在网页上的时间越来越多,网页设计的重要性不问可知。本文作者以阅读型网页设计为例,谈谈哪几点是需要出格留意的,但愿对你有辅佐。 最近认真某常识型社区的改版,个中一块是晋升...

设计中关于“左”和“右”的思考

设计中关于“左”和“右”的思考

编辑导语:由于手机尺寸的限制,我们在举办内容欣赏时会举办一些滑动操纵,差异范例的内容操纵也各不沟通,好比图片会选择阁下滑动操纵,文字会选择上下滑动;本文就先容了在设计中的“左”和“右”的操纵,我们一起...

40岁以后,你在职场还能值多少?

40岁以后,你在职场还能值多少?

跟着社会竞争的剧烈,许多职场人都开始担忧本身四五十岁之后会不谋面对赋闲。年数的焦急一直困扰着职场人,感受前路苍茫。本文作者从六个角度阐来岁龄带来的职场焦急,并提出办理方案,但愿对你有辅佐。 一、年数...