图文
-
解锁智慧人居新生活!设计新主场·全国首场
2023-10-25 17:35
-
江苏“五一”假期消费清单来了!文旅、餐饮
2023-03-04 13:08
-
第一届印迹乡村创意设计大赛总预选赛将在青
2021-10-12 13:52
以后再也不能说人类比AI还懂常识了!最近由微软黄学东坐镇,清华姚班毕业生发布了一个新系统KEAR,成功刷榜各大常识问答排行榜,常识问答性能首次超越人类,甚至非英文的常识他也懂!
AI模型一直为人诟病的一点就是只会「死学习」,只能根据给定的训练样本来进行预测,稍微问一点「常识性」的问题它都回答不了。
比如你问GPT—3:太阳有几个眼睛。
它会毫不犹豫的告诉你:当然是一个眼睛!
虽然常识信息没有体现在输入文本中,但如果不懂常识的话,那回答只能是驴唇不对马嘴。
为了解决这类常识性错误,研究人员借助ConceptNet建立了一个专门针对常识问答的数据集CommonsenseQA,要求模型必须得了解常识才能够正确回答问题。
每个问题包含五个候选答案,其中有两个是干扰项,对AI模型来说属于是难上加难了。
例如给定一个问题:你的狗喜欢吃什么。
候选答案可能是沙拉,抚摸,喜爱,骨头,关心等人在与狗交往的过程中,可以了解到大部分狗都喜欢吃骨头,从而推理出你的狗在候选答案中也更倾向于骨头,但AI模型并不懂
所以想要正确回答这个问题,必须要懂得如何利用外部知识。
时间来到三年后,最近来自微软的华人团队发表了一篇论文,提出了一个KEAR系统,将CommonsenseQA常识问答的性能抬到了新高度,准确率达到89.4%,成功超越人类,堪称AI常识领域的里程碑模型了。
相比传统AI模型需要大规模数据来训练,这篇论文提出了一种外部注意力机制来增强Transformer架构,能够把外部知识信息集成到预测的过程中,从而减少了模型对大参数量的需求,让AI系统更加民主化,也就是说可以降低AI模型研究的门槛,不用从老黄那买特别多的显卡,也能实现SOTA性能。
大体来说,KEAR模型在回答「你的狗喜欢吃什么」这个问题的时候,它会首先从ConceptNet实体链中检索出「狗mdash, desires mdash, petted, affection, bone, lots of attention」,这样就排除了一个错误答案沙拉。
然后KEAR会从Wiktionary中检索出骨头的定义:构成大多数脊椎动物骨架的复合材料,
从CommonsenseQA数据集中的训练数据中检索出「狗喜欢吃什么骨头」
再将检索到的知识和输入的知识进行级联后,KEAR将其作为DeBERTa模型的输入,最后可以推理出正确答案:骨头!
可以看到,对于人类来说最简单的一个问题,AI模型要完成却需要大量的外部信息才能正确回答。
由于CommonsenseQA只是英文常识问答的数据,文中还探索了一下其他语言的常识推理是否依然有效。
研究人员首先将非英语问题翻译成英语,然后在英语的语料数据中检索知识,然后将知识文本翻译成源语言,经过外部注意力机制后再翻译获得答案,即翻译—检索—翻译。
结果也是在X—CSR基准上的两个任务X—CODAH和X—CSQA都取得了第一名。
时至今日,大部分AI模型基本都在源文本上使用自注意力机制,通过把大量的数据喂给模型进行训练,从而使模型记住输入的文本。
虽然Transformer的效果很好,但缺点也很明显:
时间和空间复杂度太高,需要大量的显卡和显存 数据量不够的情况下,Transformer表现不够好
外部注意力的实现方法也很简单,将输入和知识级联起来作为新的输入,然后将整体作为H0经过自注意力机制即可。
引入的外部信息以符号的方式存储,如纯文本或知识图谱条目,从而能够提升Transformer在语言理解方面的能力。
并且KEAR使用的输入和知识的文本级联不会对Transformer模型结构产生任何改变,使现有的系统可以很容易地使用外部注意力。
因为世界上的知识也是在动态变化的,所以外部注意力的另一个好处是,用户可以很容易地更新知识源来改变模型的预测输出。
通过引入最新的常识,例如将在线更新的知识图谱输入到模型中,可以使模型的决策过程变得更加透明和可解释。
而用多模块联合优化,加上外注意力引入知识库也是微软人工智能认知服务提质量的核心方向。
朱晨光是微软认知服务研究组的首席研究负责人他领导知识和语言团队,从事文本总结,知识图谱和面向任务的对话方面的研发工作他于2016年在斯坦福大学获得计算机科学博士学位和统计学硕士学位,在此之前于清华大学姚班获得计算机科学学士学位
黄学东是微软AI认知服务工程和研究团队的领导人,IEEE/ACM院士 ,微软首位「华人全球技术院士」,微软首席语音科学家,微软云计算与人工智能事业部认知服务团队全球技术院士/全球人工智能首席技术官他先后获得湖南大学学士学位,清华大学硕士学位和英国爱丁堡大学博士学位
。郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。
2023-10-25 17:35
2023-03-04 13:08
2021-10-12 13:52
RSS订阅|网站地图| ( 备案号:皖ICP备2022015281号 )
企业家在线© 2012- X3.4