上传者: mays_changzhi
|
上传时间:2024/1/27 18:42:02
|
文件大小:220KB
|
文件类型:doc
NLP分词算法,源码
最大概率分词算法,带详细源码基于最大概率的汉语切分目标:采用最大概率法进行汉语切分。
其中:n-gram用bigram,平滑方法至少用Laplace平滑。
输入:接收一个文本,文本名称为:corpus_for_test.txt输出:切分结果文本,其中:切分表示:用一个字节的空格“”分隔,如:我们在学习。
每个标点符号都单算一个切分单元。
输出文件名为:学号.txt
本软件ID:10115330