我们需要的人工智能:助手还是替代者-全球热门

2023-04-25 02:30:35 来源:齐鲁壹点

科技进步预示着人类生活的进步与改善,但是当科技进步到来之时,我们往往来不及思考它将如何影响我们的生活,于是出现了新的道德困境。从基于大数据的罪犯画像到无人驾驶,从未来的性别认同到人类在虚拟世界中的互动关系,从基因编辑引发的伦理担忧到人工子宫和人体冷冻法,《未来道德:来自新科技的挑战》一书汇集了29位哲学家的文章,就现已出现以及即将面世的未来科技可能对人类社会带来的伦理挑战做出了深入的剖析与预测,从哲学的角度思考未来科技与人类的命运如何相互作用。当下,人工智能的发展正受到越来越多的关注,这就催生出了一个问题:我们能否通过利用这些技术,改善我们在未来的重要问题上做出的决策?本文为书中选摘,以飨读者。


(相关资料图)

《未来道德:来自新科技的挑战》

[英]大卫·埃德蒙兹 编著

蒋兰 译

中国科学技术出版社

文|杰斯·惠特斯通

在人类认知领域,有许多我们司空见惯的事物被证明很难被机器复制。比如,我们能够将形态各异的椅子或者狗归类,还能识别具有不同光影、背景、视角的图像。这些对我们来说轻而易举的事,在人工智能系统的设计中却很难被实现。相反,我们认为下国际象棋需要运用更多智慧,但事实是人工智能只需要简单粗暴的学习就能轻松掌握。

一般来说,和机器相比,人类的认知能力已经被证明是十分强大且灵活的。当我们细想每天要处理多少复杂和模棱两可的信息,要做多少个决定时,像适应我们所处的环境和通过别人的表情了解他们的情绪这种“小事”就更加容易受到关注。

因为我们面临的世界有着极大的复杂性和不确定性,我们不可能将每一个决策做到尽善尽美。所以,我们选择经验主义的捷径:不假思索地走上以前一直走过的路。我们总是模仿周围人的行为。我们总是过滤掉大量非急需的信息。要想同时理解人类思想的优势和短板,我们就一定要明白我们接收和处理信息的能力是有限的,所以我们需要“经验法则”帮助我们理解这个极其复杂和充满不确定性的世界。这些基于经验的捷径思维在大部分情况下十分奏效,但是它们也系统性地限制了我们的思想。

我们在决策中简单粗暴地基于经验捷径行事也意味着保持一致性并非我们的强项。在不同的日子问我同一个问题,我可能会根据你对问题的表达和我当时的想法,给出不同的回答。事实上,因为我们必须走许多捷径,所以在面对复杂且模棱两可的信息时,我们容易习得“错觉相关”。换句话说,就是让我们相信并不存在的模式或联系。

这些局限性似乎会特别影响我们应对全球性挑战的能力。这些挑战需要我们提前做好准备,并在应对时采取集体行动。但正是这些挑战的“全球性”让我们很难对它们进行理解和预测:当面对哪些干预措施最能有效减轻气候变化,核武器的威胁有多大,或者是新型传染病的传播速度有多快等复杂问题时,我们的直觉变得不再可靠。在回答这些问题时,我们很容易给出看似言之有理但是过于简单的结论,并在这上面浪费大量的时间和资源。

我们在人类决策中见识到的偏见和错误,证明了我们大脑承载的信息量超出了我们能够承受的范围,即所谓的信息过载。在很多方面,这种信息过载的情况只增不减——我们在网络上接触到越来越多信息,我们比以往任何时候都有更多选择。这让我们处理信息的局限性愈发凸显。

对于利用人工智能改善决策,我们有两种截然不同的认知方式。

第一种是将人工智能系统视作人工决策的替代品:越来越多的决策被外包给能够更快更高效地解决问题的自动化系统。举一个简单的例子,谷歌地图在获悉一个城市的所有路径,以及计算从A点到B点的最优路径等事上胜过我的大脑,所以很多时候我都会将制定路线的决策外包给它,不假思索地按照它的导航走。

第二种是将人工智能系统视作人类能力的补充:它们能帮助我们以全新且重要的方式理解这个世界。我们不能简单地认为这些方式优于人类理解世界的方式,两者应是互补的。在有些事上,我更了解我的城市,比如哪些路线在晚上最安全,哪些路线在白天的风景最好,这些信息都不容易被谷歌地图的软件收录。谷歌地图可以帮助我规划耗时最短的路线,以节省我的体力和时间,但是在其他情况下,我会把谷歌地图导航与我已知的其他知识相结合使用。

当前许多有关人工智能在社会中的运用的讨论都含蓄地指向第一种观点:也就是用更高效、更优秀的人工智能决策程序取代人类决策。这一观点似乎也加强了许多有关人工智能对社会和人类产生的潜在影响的担心:工作中自动化的增长究竟对经济、不平等以及人存在的意义意味着什么;那些被设定在决策算法中的偏见令人困扰;人工智能开始在越来越多的领域中取代人类,而它的安全性和可靠性究竟几何。鉴于这些担忧,我们的社会应该问一个重要的问题:我们是否真的希望,或者需要构建一套人工智能系统以取代人工服务?我的建议是,我们应该更明确地考虑将人类和机器各自的优势相结合,尤其是在我们的社会面临最关键的问题时。

由于人类推理的局限性源于我们有限的认知能力,我们有充分的理由认为人工智能可以帮助我们克服这些具体的局限性,并与我们的思维优势互补。当处理诸如说服他人或与他人交流等多数日常问题时,人工智能系统往往不如人类灵活高效,但是它们可以帮助我们更加精确可靠地理解大量复杂信息。在联合国最近的一份关于人工智能的报告中,联合国粮食及农业组织表示:“人工智能最重要的作用……是预测意外事件、威胁和危机。通过早期发现、预防和缓解等手段,我们就可以在饥荒、气候变化、移民等挑战成为危机前将其解决。”

人工智能与人类能力优势互补的另一种显著方式是为我们提供工具,更严格地设计决策过程,从而帮我们做出更一致、更系统的决策。

实际上,最近在社会上,由人工智能的使用产生的诸多问题,都源于它们被用于自动执行那些包含着主观因素的决策:有关某人是否应该被假释,是否应得到这份工作,以及是否应向其提供贷款等问题的决策。算法可以为我们推算来自某一特定群体的人再次犯罪、成功就业或偿还贷款的概率等统计信息。但是基于这些统计信息,谁应该得到怎样的机会仍是一个没有标准的问题。毫无疑问,遵循算法可能会最终加剧不公:如果少数族裔在招聘中一向受到歧视,那么数据将会显示他们在工作中成功的概率较低,从而导致他们在未来受到更多的歧视。

但是,如果我们将在这些背景中使用的算法视作范围更广的决策中的一项数据分析,那么我们更容易关注并减轻对于偏见的担忧。我们不应该期望人工智能系统能够理解人类价值观的复杂性和细微差别。鉴于人类和人工智能各自的相对优势,这显然不是它们目前最能帮助到我们的地方。

尽管如此,当涉及情况特殊、具有主观性的决策时,算法有时可以帮助我们更清晰地梳理问题,减少我们在认知过程中下的功夫:提取关键信息,确保我们不会忽略重要因素,并帮助我们更清晰地思考复杂系统中的因果关系。

如果我们把人工智能更多地视作对人类决策的支持与补充而不是后者的替代品,我们可能会发现我们最需要的绝不是如今被大肆宣传和被研究人员高度关注的极其复杂的机器学习能力。对于许多重要的现实问题,最被我们需要的并不一定是最佳的计算机视觉和自然语言处理能力,因为我们的视觉和语言能力已经非常优秀了。我们最需要的是较为简单的大数据分析,以及架构推理和决策的实用性工具。

(摘选自《未来道德:来自新科技的挑战》,内容有删减,标题为编者所加)

标签:

上一篇:【当前独家】兴齐眼药:硫酸阿托品滴眼液获得境内生产药品注册上市许可《受理通知书》
下一篇:最后一页
业界
更多
手机
更多
测评
软件
数码