結巴實在是太簡單太好用了,官網上面的使用說明寫得很清楚,所以這裡只摘錄一些簡單的東西。
- 安裝:
1 |
pip install jieba |
- 斷詞:
使用 jieba.cut(),直接看例子:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 |
# encoding=utf-8 import jieba seg_list = jieba.cut("我来到北京清华大学", cut_all=True) print("Full Mode: " + "/ ".join(seg_list)) # 全模式 seg_list = jieba.cut("我来到北京清华大学", cut_all=False) print("Default Mode: " + "/ ".join(seg_list)) # 精确模式 seg_list = jieba.cut("他来到了网易杭研大厦") # 默认是精确模式 print(", ".join(seg_list)) seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造") # 搜索引擎模式 print(", ".join(seg_list)) |
結果:
1 2 3 4 5 6 7 |
【全模式】: 我/ 来到/ 北京/ 清华/ 清华大学/ 华大/ 大学 【精确模式】: 我/ 来到/ 北京/ 清华大学 【新词识别】:他, 来到, 了, 网易, 杭研, 大厦 (此处,“杭研”并没有在词典中,但是也被Viterbi算法识别出来了) 【搜索引擎模式】: 小明, 硕士, 毕业, 于, 中国, 科学, 学院, 科学院, 中国科学院, 计算, 计算所, 后, 在, 日本, 京都, 大学, 日本京都大学, 深造 |
- 繁體字典:
字典位置:https://github.com/fxsjy/jieba/raw/master/extra_dict/dict.txt.big
使用方式:(就多了一行 set_dictionary)
1 2 3 |
jieba.set_dictionary('dict.txt.big') words = jieba.cut(content, cut_all=False) |
- 自定義字典:
自定義字典的詞性縮寫可以參考這裡:https://github.com/rudaoshi/ICTCLASTokenizer/blob/master/src/ictclas/part-of-speech.txt
範例程式碼:
1 2 3 4 |
jieba.set_dictionary('dict.txt.big') jieba.load_userdict("userdict.txt") words = jieba.cut(content, cut_all=False) |
- 關鍵詞提取:
1 2 3 |
import jieba.analyse jieba.analyse.extract_tags(sentence, topK=20) |
資料來源:
Leave a Reply