一、新闻文本集
其中
通过TF-IDF排序中的词(由大到小),选择其中的 t 个词作为关键字,,是对应关键字的TF-IDF值。
二、神经网络语言模型
输入:该词的上下文中相邻的几个词向量(词袋模型)
输出:p(wi | context) ,该词的词向量。
通过神经网络语言模型,可以得到新闻词集合 W 中每个词的词向量;也就是得到了关键字集合中的每个关键字的词向量 。
三、用模糊的K-means聚类关键字集合
说明:因为每个词可能对应多个文本,所以模糊的K-means是比较合适的算法。初始类别的选择是提高精确度的关键因素。我们能够从关键字集合 G 中选择一个标记的词集 B,每个标记的词代表一个关键字的类别,标记词集B的大小就是聚类的类别数,初始值,就是这些标记的词,用表示,标记词 的词向量。(其中的K值,是认为设定的,实验中需要设定不同的值,分析比较,选择最合理的一个K值)
模糊的K-means算法过程如下:
1. 对初始的类别 C1,C2,……CK,用上面的标记的词去表示类别中心,每个标记的词表示一个类别,同时设置一个迭代的次数。
2. 更新 的值,其中 表示词 i 属于类别 j 的概率,在每次迭代中,计算每个关键字属于每个类别的概率,根据下面的公式:
其中的距离的计算公式,用的是余弦距离:
3. 根据每个关键字属于类别 的概率和关键字的词向量,计算该类别的中心。并作为该类别的代表向量:
其中的。
4. 如果迭代的次数没有超过第一步设置的值,跳到第2 步,重新执行2-4,否则,停止。
当迭代停止后,得到聚类的结果,其表示形式,每个类别表示一个集合 ,用语言表示就是关键字 ,属于类别 的概率是 。(文档集的每个关键字都以一定的概率属于每个类别。可能有的概率值为0)
四、基于关键字集的聚类结果的文本聚类
文档集的关键字聚类结果,是文本聚类的基础,根据下面的公式计算每个文档属于每个类别的概率,选择概率最大的类别作为,该文档所属的类别:
其中的 表示文本 属于类别 的概率,最后我们得到 ,其中 。
五、模型的评估方法
使用准去率和召回率,以及F-measure值,来评价模型
其中的 是类别 i 的文本数量;是应该属于类别 j 但是被分到类别 i 的文本数量。
基于神经网络语言模型的中文新闻文本聚类算法的优点:
1.该算法比其他算法(基于LDA)的运行时间快两倍多。
2.每个类别的关键字,能够很好的表示类比的一些属性。
3.适合于处理大规模的中文语料库。
文献:
A Text Clustering Approach of Chinese News Based on Neural Network Language Model
/article/10.1007%2Fs10766-014-0329-2