《天龙八部》是著名作家金庸的代表作之一,历时4年创作完成。该作品气势磅礴,人物众多。这里给出一个《天龙八部》的网络版本,文件名为“天龙八部一网络版.txt”。 问题1:请编写程序,对这个《天龙八部》文本中出现的汉字和标点符号进行统计,字符与出现次数之间用冒

admin2019-08-30  71

问题 《天龙八部》是著名作家金庸的代表作之一,历时4年创作完成。该作品气势磅礴,人物众多。这里给出一个《天龙八部》的网络版本,文件名为“天龙八部一网络版.txt”。
问题1:请编写程序,对这个《天龙八部》文本中出现的汉字和标点符号进行统计,字符与出现次数之间用冒号:分隔,输出保存到“天龙八部一汉字统计.txt”文件中,该文件要求采用CSV格式存储,参考格式如下(注意,不统计空格和回车字符);
天:100,龙:110,八:109,部:10
(略)
问题2:请编写程序,对《天龙八部》文本中出现的中文词语进行统计,采用jieba库分词,词语与出现次数之间用冒号:分隔,输出保存到“天龙八部一词语统计.txt”文件中。参考格式如下(注意,不统计任何标点符号):
天龙:100,八部:10
(略)

选项

答案问题1答案如下: fi=open(’’天龙八部一网络版.txt’’,’’r’’,encoding=’uff-8’) fo=open(’’天龙八部一汉字统计.txt’’,’’w’’,encoding=’uff-8’) txt=fi.read() d={} for c in txt: d[c]=d.get(c,0)+1 del d[’’] del d[’\n’] ls=[] for key in d: ls.append(’’{}:{}’’.format(key,d[key])) fo.write(’’,’’.join(ls)) fi.close() fo close() 问题2答案如下: import jieba fi=open(’’天龙八部一网络版.txt’’,’’r’’,encoding=’uff-8’) fo=open(’’天龙八部一词语统计.txt’’,’’w’’,encoding=’utf-8’) txt=fi.read() words=jieba.lcut(txt) d={} for w in words: d[w]=d.get(w,0)+1 del d[’’] del d[’\n’] ls=[] for key in d: ls.append(’’{}:{}}’’.format(key,d[key])) fo.write(’’,’’.join(ls)) fi.close() fo.close()

解析 这是一个综合应用题,考核对文本文件中字符和单词的统计能力。
    问题1:统计网络下载的“天龙八部一网络版.txt”中各字符出现次数,采用“字符:次数”方式表示,以CSV方式存储至“天龙八部一汉字统计.txt”。读写文件分别采用open()函数的’’r’’和’’w’’模式。
    在读入文件时,可以增加参数encoding=’’uff-8’’,指定程序采用utf-8编码打开文件。文件编码过于复杂,在等级考试中并未涉及,这里,建议对编码的理解使用如下两条规则:第一,如果一个文本文件从网络获得,增加encoding参数,指定编码方式打开;第二,如果Python程序生成了一个文件,并再次打开,则不需要指定encoding参数。
打开文件后,可以一次性读人文件内容至变量txt中,采用遍历循环逐一遍历txt中每个字符,并利用字典将每个字符的出现次数计入“字符:次数”键值对表示中,采用代码如下:
d={}
for c in txt:
d[c]=d.get(c,0)+1
    所有字符统计后,去掉空格(’’)和回车(’\n’)对应统计次数,采用del删除字典d中对应项。再遍历字典d,将其写入列表ls,列表每项为“字符:次数”样式字符串。最后,使用字符串.join()方法,将列表ls中所有项以逗号分隔形式整合并写入输出文件。
    综上,问题1的全部代码含注释如下:
fi=open(’’天龙八部一网络版.txt’’,’’r’’,encoding=’utf一8’)
fo=open(’’天龙八部一汉字统计.txt’’,’’w’’,encoding=’uff一8’)
txt=fi.read()
d={}
for c in txt:  #遍历循环,统计各出现字符及次数
d[c]=d.get(c,0)+1
del d[’’]    #删除空格字符对应的出现次数
del d[’\n’]    #删除回车字符对应的出现次数
ls=[]
for key in d:    #遍历字典,将字典各项组织后变成列表的元素
Is.append(’’{}:{}’’.format(key,d[key]))
fo.write(’’,’’.join(ls))
fi.close()
fo.close()
    问题2与问题1类似,只不过统计单元由字符变为中文词语,这需要采用jieba库进行分词。整体代码与问题1类似,仅在获取文本txt后进行一次jieba.lcut()分词操作即可。
    综上,问题2的全部代码含注释如下:
import jieba
fi=open(’’天龙八部一网络版.txt’’,’’r’’,encoding=’utf-8’)
fo=open(”天龙八部-词语统计.txt’’,’’w’’,encoding=’utf-8’)
txt=fi.read()
words=jieba.lcut(txt)    #中文分词,words是一个列表变量
d={}
for w in words:    #遍历列表各元素,即遍历中文词语
d[w]=d.get(w,0)+1
del d[’’]
del d[’\n’]
ls=[]
for key in d:
ls.append(’’{}:{}’’.format(key,d[key]))
fo write(’’,’’.join(ls))
fi.close()
fo.close()
转载请注明原文地址:https://jikaoti.com/ti/cS50FFFM
0

最新回复(0)