400-028-4501

公司动态

Company Dynamics

了解我们的最新资讯动态

知微见著 | 比尔·盖茨:生成式AI已达极限,下一个突破是可解释AI

        

《科创板日报》11月27日讯,比尔·盖茨表示,OpenAI内部包括奥特曼在内的很多人都相信GPT-5将明显优于GPT-4。但他认为,有很多理由相信,当前生成式人工智能已经达到极限。而下一个突破,盖茨认为是“可解释AI”,但预计要到下一个十年(2030-2039)才能实现。


随着AIGC的技术突破,大模型的不断涌现,AI 应用和产品纷纷落地。让人们对 AI 伦理与治理的关注度日益增加,比如:什么是可解释性AI?如何打造出负责任的AI?如何让AI系统可信可控?本期【知微见著】就和大家聊聊这个话题。


01
“可解释性人工智能(XAI)”

谈到AI的伦理和治理,“可解释性”是首当其冲的问题。可解释的人工智能,是指一套流程和方法,可使人类用户能够理解和信任机器学习算法所产生的结果和输出简单的说,可解释性就是把人工智能从“黑盒”变成“白盒”。


随着深度学习和基于深度学习的人工智能系统的出现,它们呈现出了“黑盒性”问题——:决策或结果生成的具体依据是什么?边界有哪些?什么时候会出现错误?以及当它们给出错误结果时,我们能够明白如何调整和修改它们。


图片


因此,我们需要更好的了解AI模型的“可解释性”。增进AI系统的可解释性,有助于人类对AI系统进行审计或者审查,进而可以识别、减少、消除算法歧视,避免AI在决策和输出中造成的失误和风险漏洞等


02

语义知识库助力打造“可解释性AI"


理想的可解释AI系统,应该是能够在做出决策的同时,也可以给出相应的依据,并且可以根据用户反馈进行及时调整


虽然大型语言模型在自然语言处理的许多任务上表现出色,但我们仍然需要寻找一种可解释的方法。


基于联著自主知识产权语义工程技术的AI,无需大量数据大规模和重复训练,只要通过建立语义知识框架,理解逻辑规则就能做出延伸推理;而这种方法推理过程透明,清晰展示决策过程和结果,能够方便用户理解、验证;且这种“类人”式的学习方式,通过不断积累扩充更新语义知识库,实现对自然语言语义的高保真识别。


今年8月1日,联著与新华通讯社通信技术局牵头起草的《中文新闻语义结构化标注》团体标准(国家标准正在立项申请中)正式发布实施,基于该标准的标识体系可以直接生成知识库,也可以作为训练集训练神经网络,实现从文本生成知识库。生成的知识库,具有可解释、可溯源、可归因、可积累、可迁移的特性,在知识获取过程中,支持碎片化阅读、积累式学习和交流式迁移。


语义结构化标注标识体系不仅适用于新闻、媒体、教育、企业、电商等内容需求密集行业,还适用于许多如医疗、司法、档案、国安、金融等大模型难于落地训练和应用的数据敏感型行业


深度学习算法、神经网络的不可解释性是现在限制人工智能技术应用场景扩展的一个重要问题,盖茨先生认为“生成式AI已达极限,下一个突破是可解释AI”的论断也是十分有前瞻性的。


AI的可解释性理论背后是我们关注如何通过解释模型达到人类对模型的信任,从而为我们创造更加安全可靠的应用。相信在不远的未来,具备可解释性的人工智能将会引领人工智能技术进行一次新的突破。




来源参考:

1.《AI真的能够理解人类语言吗?这里有一份“AI可解释性”攻略指南》

https://mp.weixin.qq.com/s/p3zg63ZF1dsM5qpgbYWiMQ

2.《趣味科普|可解释性人工智能》

https://mp.weixin.qq.com/s/WjRq7fTHK8yUaWswu_v_qw





在线客服
返回顶部
返回底部