OpenAI 向杜克大学的一个研究团队提供 100 万美元的资助,用于研究人工智能如何预测人类的道德判断。
该倡议强调了人们对技术与道德交叉问题的日益关注,并提出了关键问题:人工智能能否处理道德的复杂性,还是道德决策仍应由人类来做?
杜克大学道德态度与决策实验室 (MADLAB) 由伦理学教授 Walter Sinnott-Armstrong 和联合研究员 Jana Schaich Borg 领导,负责“制造道德人工智能”项目。该团队设想了一种“道德 GPS”,一种可以指导道德决策的工具。
其研究涵盖计算机科学、哲学、心理学和神经科学等多个领域,旨在了解道德态度和决策是如何形成的,以及人工智能如何为这一过程做出贡献。
人工智能在道德中的作用
MADLAB 的工作研究了人工智能如何预测或影响道德判断。想象一下一种评估道德困境的算法,例如在自动驾驶汽车的两个不利结果之间做出决定,或为道德商业实践提供指导。这些场景凸显了人工智能的潜力,但也提出了一些基本问题:谁来决定指导这些类型工具的道德框架,以及是否应该相信人工智能能够做出具有道德影响的决策?
OpenAI 的愿景
该基金支持开发预测人类在医疗、法律和商业等领域的道德判断的算法,这些领域经常涉及复杂的道德权衡。尽管人工智能前景光明,但它仍然难以理解道德的情感和文化细微差别。当前的系统擅长识别模式,但缺乏道德推理所需的更深层次的理解。
另一个担忧是这项技术将如何应用。虽然人工智能可以帮助做出拯救生命的决定,但它在国防战略或监视中的使用会引发道德困境。如果不道德的人工智能行为符合国家利益或符合社会目标,那么它们是否合理?这些问题强调了将道德嵌入人工智能系统的难度。
挑战与机遇
将道德融入人工智能是一项艰巨的挑战,需要跨学科合作。道德并非放之四海而皆准,它受到文化、个人和社会价值观的影响,因此很难融入算法。此外,如果没有透明度和问责制等保障措施,就有可能延续偏见或促成有害应用。
OpenAI 对杜克大学研究的投资标志着人们朝着理解人工智能在道德决策中的作用迈出了一步。然而,这段旅程还远未结束。开发人员和政策制定者必须共同努力,确保人工智能工具符合社会价值观,强调公平和包容性,同时解决偏见和意想不到的后果。
随着人工智能在决策中的作用越来越重要,其伦理影响也需要引起重视。“打造道德人工智能”等项目为我们提供了一个起点,让我们能够驾驭复杂的环境,在创新与责任之间取得平衡,从而塑造一个技术服务于大众利益的未来。