APP下载

哲学思考 帮助人类避免人工智能奇点 | 社会科学报

消息来源:baojiabao.com 作者: 发布时间:2024-06-01

报价宝综合消息哲学思考 帮助人类避免人工智能奇点 | 社会科学报

点选上方“社会科学报”关注我们

人工智能的迅速发展正在深刻地改变世界、改变人类的社会生活。近日,南京大学哲学系与南京大学科学技术与社会研究所主办了“人工智能哲学工作坊”活动,跨学科探讨人工智能伦理问题。南京大学哲学系潘天群教授认为,如果奇点存在,那么人类现在及未来所进行的人工智能研究与开发,便是一场将人类导向自我灭亡的愚蠢的智力活动。而这正是我们需要避免的,也是哲学所要思考的。

原文 :《哲学思考:避免人工智能奇点》

作者 |南京大学哲学系教授 潘天群

图片 |网络

人工智能现在是一个很热的概念。人工智能指的是,研究怎样制造计算机或者人造物,并为其编制程式使其能够做人类心灵所能够做的事情。这个概念起源于1956年麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智慧”。经过六十多年的发展,今天人工智能成为引领人类社会发展的一个重要技术,尽管期间有起有落。现在,我们正在经历著一场人工智能引发的工业革命。人工智能产业规模持续并快速增长。据德勤研究资料,2017年全球人工智能市场规模首次突破2000亿元,2018年近3000亿元;2019年,全球人工智能市场规模有望突破4000亿元。人工智能作为一门通用技术,以前所未有的深度与广度改变着人类社会。

哲学思考着人类“能够做”的行为边界

人工智能的发展与哲学密切关联。哲学思考着人类“能够做”的行为边界,图灵1950年的那篇著名论文《计算机器与智慧》发表于《心灵》杂志,他避开了常用的概念分析方法给思维下定义,而给出了行为主义的定义。这便是著名的图灵测试

其实,在他之前许多哲学家进行一系列相关的理智历险。早在17世纪霍布斯已经预测了强AI,他有一句宣言:推理就是计算;而大约在同一时代,莱布尼茨梦想着“通用演算”的概念,他认为我们可以用机械演算来解决人们之间的争论。而更早的笛卡尔已经有了类似于Turing测试的想法,并且他给出自己悲观的观点:

如果有一些机器跟我们的身体一模一样,并且尽可能不走样地模仿着我们的动作,我们还是有两条非常可靠的标准,可以用来判明它们并不因此就是真正的人。

第一条是:它们决不能像我们这样使用语言,或者使用其他由语言构成的讯号,向别人表达自己的思想。因为我们完全可以设想一台机器,构造得能够吐出几个字来,甚至能够吐出某些字来回答我们,扳动它的某些部件的身体动作,例如在某处一按它就说出我们要它说的要求,在另一处一按它就喊痛之类,可是它决不能把这些字排成别的样式适当地回答人家向它说的意思,而这是最愚蠢的人都能办到的。

第二条是:那些机器虽然可以做许多事情,做得跟我们每个人一样好,甚至更好,却决不能做别的事情。从这一点可以看出,它们的活动所依靠的并不是认识,而只是它们的部件结构;因为理性是万能的工具,可以用于一切场合,那些部件则不然,一种特殊结构只能做一种特殊动作。由此可见,一台机器实际上决不可能有那么多的部件使它在生活上的各种场合全都应付裕如,跟我们依靠理性行事一样。(Descartes 1911,p.116)

笛卡尔的理由有两点,第一,机器没有我们的语言,因而不能成为真正的人,第二,机器能够在某一方面做得很好,即专用智慧,而人的理性决定了人的智慧是通用的。尽管如此,笛卡尔的心-身二元论深刻地影响人工智能的发展。

超级人工智能:远超人类

哲学家塞尔在有关“中文屋论证”的著作中给出了强人工智能概念。塞尔对基于物理-符号的基础上实现强人工智能的观点持反对态度。

然而,存在极端的强人工智能观点,查尼牙克(Charniak)和麦克德莫特(McDermot)在他们对人工智能的经典介绍中说道:“人工智能的终极目标,我们还远远未能实现,是建造人,或者,退一步,建造动物。”(Charniak & McDermott 1985, p. 7)需要注意的是,查尼牙克和麦克德莫特并没有说终极建造物只是看起来像是人,他们所说的人工智能就是所谓的强人工智能。

而另外一个学者霍格兰(Haugeland)说:“(人工智能研究)最根本的目的完全不是模仿智力活动或是制造出一些聪明的假货。人工智能要的是真正的有心灵的机器。这不是什么科幻小说,而是真正的科学,它基于一个既深刻又大胆的理论概念:从根本上说,我们自己就是计算机(Haugeland 1985b, p. 2)。”

智慧是地球上稀缺性的资源,但随着人工智能的发展,天然具有的智慧的人便是无足轻重的,人甚至可能变成地球上的废物。

1958年,被誉为“计算机之父”“博弈论之父”的约翰·冯·伊诺曼在和数学家乌拉姆谈论技术变化时使用了“奇点”一词。

英国数学家古德是第二次世界大战期间图灵密码破译小组的首席统计师兼数学家,他在1965年在一篇题为《对第一台超级智慧机器的一些推测》的论文中的话:“一台超级智慧机器可以定义为是一台在所有智慧活动上都远超人类——不管人有多聪明——的机器。由于机器设计属于这些智慧活动的一种,那么一台超级智慧机器当然能够设计更出色的机器,那么毫无疑问会出现一场‘智慧爆炸’,把人的智力远远抛在后面。因此,第一台超级智慧机器也就成为人类做出的最后的发明了——前提是这台机器足够听话且愿意告诉我们怎样控制它。”

思考人工智能应用的应然边界

如果奇点是存在的,那么人类现在及未来所进行的人工智能研究与开发,便是一场将人类导向自我灭亡的愚蠢的智力活动,而不是将人类从劳动中全面解放出来使人类走向更高文明形态的活动。而这正是我们需要避免的,如果可能的话。这也是哲学所要思考的。

哲学不仅思考人们行为能够做的可能边界,而且思考人们“应当”做的应然边界。这个应然边界的思考在当前更为迫切。在当前的技术中,人工智能是研究开发能够模拟、延伸和扩充套件人类智慧的理论、方法、技术及应用系统的一门新的技术科学,研究目的是促使智慧机器会听(语音识别、机器翻译等)、会看(影象识别、文字识别等)、会说(语音合成、人机对话等)、会思考(人机对弈、定理证明等)、会学习(机器学习、知识表示等)、会行动(机器人、自动驾驶汽车等)。这些领域迫切需要我们思考人工智能应用的应然边界。

人工智能是否能够用于军事,比如我们是否允许开发出机器人士兵?这是-应当考虑的;

无人驾驶的算法应当植入怎样的伦理,在电车难题中它应当撞向5个人还是1个人,当然这为难程序员了,因为哲学家也没有一个统一的意见。

对于企业,如何开发出向善的或者避免恶的人工智能产品?

目前,大资料伦理更为迫切,如熟知的事情是Facebook丑闻,克里斯托弗·威利(Christopher Wylie)创立了剑桥分析(Cambridge Analytica),他打入了Facebook获取了美国数百万人的个人资料,利用他们的私人资讯和人际资讯建立心理和政治档案,然后针对他们特定的心理构成设计并投放政治广告。这是一个新型的政治控制或极权模式,为此齐泽克说:“我们是被幸福地被操控”。

事实上,我们大众是被操纵的羔羊,或隐形的或和明显的,这是社会现实,而技术包括人工智能技术如何避免成为企业为了利润,或政治集团为了政治目的,而操纵大众的帮凶?这正是哲学需要思考的。

哲学家的智慧超越时代。哲学的讨论不是玄想,也不是杞人忧天。可能性不一定是现实的,但可能性有可能变成现实。哲学家是上帝的使者:哲学家的思考能够使得某些善的可能性成为现实,而使得某些恶的可能性消遁。真正的灾难是不被意识到的,而当灾难被意识到的时候,人类便想办法克服它,而哲学家便是意识到那些灾难从而提醒大众的先知。

文章原载于社会科学报第1663期第6版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。

拓展阅读

超越技术:第四次工业革命,人类能“战胜”技术吗? | 社会科学报

关注 | 互联网不是法外之地,青少年保护仍需努力!

网络多元民意表达:正视“呈现”的价值 | 社会科学报

长按二维码关注

社会科学报

做优质的思想产品

http://www.shekebao.com.cn/

2019-08-28 14:00:00

相关文章