源:长城网
长城网·冀云客户端讯(记者 张艺萌)2021年11月8日至11日,党的十九届六中全会胜利召开,这是在“两个一百年”奋斗目标的历史交汇点召开的一次重要会议,全面总结了党的百年奋斗重大成就和历史经验。
为推动全会精神学习走深走实,河北省总工会联合长城新媒体集团,推出河北省工会系统“学习党的十九届六中全会精神”网络答题活动,以学促做,打造人人都可参与的“沉浸式”线上学习课堂。
本次网络答题涵盖全会公报、相关决议涉及的核心要点等内容。网友可下载“冀云客户端”,在社会频道参与网络答题活动。活动结束后,全网排名前100名的网友,可获精美纪念品。
学习党的十九届六中全会精神,你的成效如何?快来线上挑战答题活动检验一下吧!
参与网络答题步骤如下:
2.下载客户端后,找到客户端顶部导航栏“社会”频道参与“学习党的十九届六中全会精神”。进入答题页面后,按要求填写姓名和联系电话等信息,再行答题。
3.获奖名单公示:答题时间自2021年12月20日9时开始,至2022年1月10日24时结束。活动结束后,获奖名单将在冀云客户端社会频道公示。请参与人员务必完善个人信息,如联系电话失效,视为自动放弃。
参与网络答题规则如下:
1、本次答题为单项、多项选择题,从100道题库中随机抽取10道题进行作答,每题10分,满分100分。
2、每次答题限时60秒,超时按答题错误计算,显示正确答案后进入下一题。
3、提交答案后,显示正确答案,选择错误选项显示为红色,正确选项显示为绿色,答题人员可以翻看本次答题记录。
4、练习答题阶段,每位注册用户可多次进行答题练习,题目从题库中随机选取。
5、正式答题阶段,每位注册用户只有一次答题机会,根据正确率、用时两个维度进行排名。
6、参与答题用户出现分数、答题用时一样的情况,按照答题先后顺序进行排名。
河北省工会系统“学习党的十九届六中全会精神”答题活动链接:https://jiyun.hebyun.com.cn/pages/2021/12/17/584a9734b9e649a4a447aabd54007dde.html
本文来自【长城网】,仅代表作者观点。全国党媒信息公共平台提供信息发布传播服务。
ID:jrtt
天自己使用html+servlet做的一个j在线答题小demo
前端只有jquery ,请求用的ajax,其他都是html+css 后台没用任何框架,使用的servlet
实现的功能:
倒计时十秒切换下一题,
多选题,在十秒内选出正确答案,后台存入数据库,并计算,
首先html页面
css样式
jquery
后台方面
展示效果
者 | 李秋键
责编 | 刘静
出品 | CSDN(ID:CSDNnews)
今天我们将利用分词处理以及搜索引擎搭建一个智能问答系统,具体的效果如下所示:
下面简单了解下智能问答系统和自然语言处理的概念,智能问答系统是自然语言处理的一个重要分支。现在普遍认为智能问答能够独立解决很多问题,但是必须要承认现在技术所处的初级阶段的性质。也就是说,智能问答系统在现阶段最大的价值在于为客服人员附能,而并非独立于人自行解决众多目前还有巨大错误率和不确定性的问题。一旦具有这样的思想基础——通过智能问答系统为客服人员附能,那么将智能问答系统做成一个工具和产品的基础就有了,只有通过产品化、工具化的方式,才能够实现这个预期。
自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系,但又有重要的区别。自然语言处理并不是一般地研究自然语言,而在于研制能有效地实现自然语言通信的计算机系统,特别是其中的软件系统。因而它是计算机科学的一部分。
下面开始搭建我们的智能问答系统,首先我们需要 导入的库:
import requests
from lxml import etree
import jieba
import re
import sys,time
import os
其中requests库用来向搜索引擎搜索答案,lxml用来获取答案,jieba库用来提取问题以及做出问题分析,re是处理语言的正则匹配库,sys以及time库用来调试输出效果,os模块用来写入文件以搭建模式选择。
我们知道一个真正的语言回答应该是逐字回答的才符合人的回答习惯,下面为了达到语言对话的效果,我们定义一个函数:
def print_one_by_one(text):
sys.stdout.write("\r " + " " * 60 + "\r") # /r 光标回到行首
sys.stdout.flush #把缓冲区全部输出
for c in text:
sys.stdout.write(c)
sys.stdout.flush
time.sleep(0.1)
就是用来逐字输出的效果。
下面是真正搭建的部分,为了对语言进行处理,首先我们要加载停用词,去除掉语言中无意义的词,比如“了”,“啊”等等:
stop = [line.strip() for line in open('stopwords.txt',encoding='utf-8').readlines() ]
开始执行的判断输出一下,以及使用者的输入:
print("小智:您好,请问您需要问什么呢(对话(快,慢),可控制输出速度)")
input_word=input("我:")
为了控制文字输出的速度,我们借助文件读取控制模式:
#默认为慢速
#print(input_word)
if input_word == "快":
f = open("1.txt", "w")
f.write("0")
f.close
elif input_word =='慢':
f = open("1.txt", "w")
f.write("1")
f.close
下面用Jieba分词,去除掉无用的停用词:
sd=jieba.cut(input_word,cut_all=False)
final=''
for seg in sd:
#去停用词
#print(seg)
if seg not in stop :
final +=seg
process=final
此时process是仅仅最简单语言的处理结果,为了适应更多语言习惯,使用正则表达式匹配另一种语言习惯,一个“问”时的处理:
#匹配问后面全部内容
pat=re.compile(r'(.*?)问(.*)')
#一个“问”时的处理
try:
rel=pat.findall(final)
process=rel[0][1]
except:
pass
另外再添加语言习惯,两个“问”的处理:
#两个问时的处理
try:
rel=pat.findall(final)
rel0=rel[0][1]
#print(rel0)
rel1=pat.findall(rel0)
process=rel1[0][1]
except:
pass
这样输出的效果就可以适应多种语言习惯,为了区分问答句和模式选择句加入判断语句:
print("问题:"+process)
if process=='':
print("小智:OK")
在else中使用搜索引擎获取答案,首先使用请求头,百度百科网址:
header={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
url=requests.get("https://baike.baidu.com/search/word?word="+process,headers=header)
为了防止中文乱码问题,使用编码如下:
#为了防止中文乱码,编码使用原网页编码
url.raise_for_status
url.encoding = url.apparent_encoding
下面使用匹配获取内容:
bject=etree.HTML(url.text)
print(object)
#正则匹配搜索出来答案的所有网址
#获取词条
#head =object.xpath('/html/head//meta[@name="description"]/@content')
#详细内容
para=object.xpath('/html/body//div[@class="para"]/text')
然后为了判断提问者提出的问题是否可行,以及模式匹配的选择,加入判断:
result='小智:'
for i in para:
result+=i
if result=='小智:':
print("小智:对不起,我不知道")
else:
f = open("1.txt", "r")
s=f.read
if s=="1":
print_one_by_one(result)
else:
print(result)
然后循环执行问答系统即可:
while(True):
if os.path.exists('1.txt'):
chuli
else:
f = open("1.txt", "w")
f.write("1")
f.close
chuli
如下图所示,提问的语句可以任意,不需要固定格式,这样才具有智能性不是吗?
那么让我们再接着了解自然语言处理的发展历程吧,最先的语义解读各个方面的研究是自然语言。1949年,非裔威弗首先明确提出了自然语言方案。20世纪60八十年代,外国对自然语言曾有大规模的研究,花费了巨额开销,但人们以前似乎是高估了语义的复杂度,语法处置的学说和新技术皆不成冷,所以成果并不大。主要的作法是储存两种语法的单字、单词相同译名的辞典,翻译成时双射,新技术上只是变更语法的同条次序。但现实生活中的语法的翻译成近不是如此非常简单,很多时候还要参照某句话前后的意即。
约90八十年代开始,语义处置各个领域再次发生了极大的变动。这种变动的两个显著的特点是:
(1)系统对输出,拒绝研发的语义处置该系统能处置大规模的现实文档,而不是如现在的学术性该系统那样,不能处置极少的词典和类似于字词。只有这样,研发的该系统才有确实的实用性。
(2)系统对的输入,鉴于现实地解读语义是难于的,系统对非常拒绝能对语义文档展开深层的解读,但要能借此提取简单的数据。例如,对语义文档展开系统会地萃取目录词语,过滤器,索引,系统会萃取最重要数据,展开系统会概要等等。
同时,由于特别强调了"大规模",特别强调了"现实语料",上面两各个方面的开拓性管理工作也获得了推崇和强化。
(1)大规模现实语料的研发。大规模的经过有所不同深度加工的现实文档的语料,是研究工作语义统计资料物理性质的根基。没它们,统计资料方式不能是无源之水。
(2)大规模、数据非常丰富的字典的编制工作。数量为几万,十几万,甚至几十万词语,所含非常丰富的数据(如包括词语的配上数据)的计算机系统能用字典对语义处置的必要性是很显著的
作者简介:李秋键,CSDN 博客专家,CSDN达人课作者。
声明:本文为作者原创投稿,未经允许请勿转载。
【END】
*请认真填写需求信息,我们会在24小时内与您取得联系。