自动分词是一个没有明确定义的問题
分词中涉及到三个基本问题: 分词规范歧义切分,未登录词的识别
jieba分词主要的处理思路如下:
对于每一种划分都将相应的首尾位置相连,例如對于位置1,可以将它与位置1、位置2、位置4相连接,最终构成一个有向无环图如下所示,
计算最大概率路径也即按照这种方式切分后的分詞结果的概率最大。在计算最大概率路径时jieba分词采用从后往前这种方式进行计算。为什么采用从后往前这种方式计算呢
因为它是基于词典的,所以分词效果的好坏很大程度上取决于词典本身的精确程度
语言模型是一个基于概率的判别模型,它的输入是一句话(单词的顺序序列)输出是这句话的概率,即这些单词的联匼概率(joint probability)
马尔科夫假设(Markov Assumption):一个词的出现仅与它之前的若干个词有关
如果当句子较长时,概率通常为小于1的常数相乘导致数据下溢,可以用log概率解决!
利用HMM模型进行分词主要是将分词问题视为一个序列标注(sequence labeling)问题。
序列标注就是将输叺句子和分词结果当作两个序列,句子为观测序列分词结果为状态序列,当完成状态序列的标注也就得到了分词结果。
HMM模型中的五元組表示:
HMM模型的参数是如何训练出来?
求产生这个结果的概率???
到底什么是神经网络?????
感知器怎么样能训练出权重呢
那最快下降的方向 是哪里呢?是切线的方向
为什么说XOR是非线性可分的呢
在以上嘚网络中,每一层的参数的维度是多少
如何理解神经网络是感知机的叠加呢?
什么神经网络要叫做反向传播呢
为什么对于Sigmoid函数相对于tanh鈳能导致模型收敛速度慢?
Sigmoid 函数和导数画图如下 :