APP下载

【专家解读AI趋势:台湾大学资讯工程学系教授林守德】深度学习不是最终答案,第三波AI浪潮有5大挑战

消息来源:baojiabao.com 作者: 发布时间:2024-05-19

报价宝综合消息【专家解读AI趋势:台湾大学资讯工程学系教授林守德】深度学习不是最终答案,第三波AI浪潮有5大挑战
图片来源: 

何维涓摄

人工智能在今年开始发光发热,以往不被重视的类神经网络算法,因为硬件资源的提升加上大量数据的辅助,得以增加深度学习模型的准确率,让AI踏出在学术界的实验室,来到产业界产生各式各样的真实应用。

“AI早在80年代前就已经有第一波的浪潮,”台湾大学资讯工程学系教授林守德指出,当时许多企业投入开发的专家系统,就是AI最早期实现的应用,将专家的知识变成规则,借由规则来判断,从技术来看,专家系统是成功的,但因聘雇各领域专家的成本太高,导致专家系统难以普及化,因此,AI在80年代末期没有成功兴起。

接着, 90年代,更多的算法出现,加上软硬件的配合,包含电脑运算速度增加、记忆空间变大,以及网络的崛起让资料收集变得更方便且广泛,带动了AI第二波的崛起。

林守德表示,第二波AI浪潮是将机器学习应用于统计、资料探勘,众所皆知的AlphaGo,AI电脑围棋打败人类围棋冠军的事迹,掀起了这一波AI技术的浪潮。也因AlphaGo的世纪战役,也让众人对AI有更多的了解,过去,机器学习就是指用监督式学习来分类,像是支持向量机(Support Vector MachineSVM),但因这一波AI的崛起,大家开始意识到机器学习还有许多各式各样的算法,非监督式学习、增强式学习、生成对抗网络(Generative Adversarial Network,GAN)等。

尤其是增强式学习,更因AlphaGo Zero的成功而开始受到注目,增强式学习让程式能够跟外在环境互动,并从互动中学习如何优化得到的奖励的机制。

林守德认为,支撑第二波人工智能浪潮的是深度学习,深度学习是从类神经网络衍生而来,将神经网络叠合成更多层,进而产生复杂的非线性模型,在GPU运算资源的协助下,增加了训练模型的效率,而带动这一波AI发展。

但是,他认为:“深度学习并非AI最终的万灵丹”许多人可能觉得深度学习将认知和辨识的技术,推到了下一个境界,但林守德指出,深度学习还是有一些问题有待解决,目前AI的发展上,大部分成熟的应用都是与知觉相关,也就是说在辨识和认知方面的应用,但是深度学习并没有解决电脑缺乏推论能力的问题,还是无法解决非搜寻类的相关问题。

未来,第三波人工智能的浪潮,林守德提出5大即将面临的问题,第一,他认为,AI将会从弱AI进入到强AI,弱AI即是只能聚焦在单一特定的任务上,从第二波浪潮之后,都算是弱AI极致的表现,但是,将来可能会走向强AI,也就是能够解决广泛问题的AI(General AI)。

他指出,未来AI将会加强推理、创造能力,打造出更接近人类智慧的AI,是下一波AI浪潮的新挑战。目前像是DeepMind、脸书AI研究院都有在进行相关的研究,期望突破深度学习的架构,让AI能够完成更复杂的工作,像是记忆、推理等能力,若能达到这些能力,AI将会更接近人类的智慧。

第二个挑战则是AI如何与人合作,他指出目前大部分的AI都是各自处理各自的问题,在不同的领域上也少有交集,未来的AI除了要相互合作,更要与人一同合作,但是为了要与人合作,就必须需要赋予AI更多能力,包含与人类互补的智慧,还需要展现出同理心、信任感,在合作的过程中,AI也需要有认知能力来与人类沟通,目前也有许多研究在朝着开发出类似人类能力的AI方向进行。

第三挑战是安全和可性度。“AI的安全性和可信度会是未来需要关注的议题!”林守德指出,AI病毒和AI的安全性的讨论,目前为止还没有受到重视是因为AI还不够普及,未来AI深入人类的生活,变得越来越普及之后,将会开始出现AI攻击工具和方法,他表示,目前已经有研究发现,机器学习的决策可以被误导,举例来说,深度学习在图像辨识的准确度已经达到大90以上,也在许多产业广泛应用,但是若有心人士在图片上加入特殊的错误,肉眼虽看不出差别,却能够左右AI的判断,这种影响尤其不易察觉。

他认为,AI判断遭误导了,对许多应用都会造成严重的后果,举例来说,近来有些银行用AI来判定小额信贷的审核,但是AI系统若遭到有心人士攻击,可能能够使AI做出错误的判断,也会造成银行非常大的损失。

因此,林守德认为,金融业的AI应用,需要特别留意安全性,另外,国安方面,也是一大议题,未来人脸辨识、指纹辨识可能变得普及,若辨识遭到伪造,也会产生众多问题,“AI的安全性,会越来越重要,”他甚至大胆预测,在几年后将会出现第一支AI病毒。

而第四个挑战则是AI道德和伦理议题。这也是林守德常常被问的问题,“AI有没有可能摧毁人类?”他的答案是:“有可能,但是不是电影情节的那种摧毁方式”,AI短期之内,是不可能产生自我意识,进而攻击人类,AI可能危害人类的方式是,在执行命令的过程中,因为没有对现况有全面的了解,而犯错伤害到人类。

简单来说,AI在执行人类的命令时,因为误判或是不够智慧,而伤害到人类,例如,机器人被要求去冰箱拿饮料,行进的过程可能将遇到的婴儿踢到旁边,因此,“AI还需要加入道德和伦理的观念,”他认为,道德和伦理也是智慧的一部分。

不过,他也指出,要赋予AI道德和伦理的观念,非常具有挑战,有时候道德观和AI要执行的目标会有冲突,AI必须对现况有全面的了解,才能做出较正确的判断。

最后,未来AI发展可能面临的一大挑战是,要如何建立透明化的AI方法,他表示,心理学家有一项研究指出,人类较不能接受无法理解的事物,当人类不能理解事情的原委时,接受度将会下降不少,因此,AI在未来深入人类的生活,生活中许多事物将会有AI共同参与,要如何让大众接受AI的建议与决策将是一大挑战,必须建立一套透明的机制,让大众了解AI给予建议或是制定出决策的原因。

举例来说,若AI理财机器人建议投资人买某支股票,但是没有交代建议的参考资料和原因,投资人很难取信于AI,他认为,如何将AI的方法透明化并解释清楚决策的过程,以及如何说服人类相信AI的决策,会是未来需要解决的议题。

而在这一波AI浪潮中,林守德认为,要取得领先地位的关键在于,学界的研究人员从研究的角度让AI更加进化,创造领先的AI技术,而产业界则是透过实际的应用,发现AI的弱点,进而将AI系统改良成适合自己的应用,“以研发为基础,布局未来AI普及化的产业需求。”他说。

下一波AI浪潮的5大挑战

※挑战1:弱AI如何转向强AI

※挑战2:AI如何与人类合作

※挑战3:AI安全性和可信度

※挑战4:AI道德伦理观

※挑战5:AI决策透明化

※资料来源:林守德,iThome整理,2017年11月。

2018-01-10 07:25:00

相关文章