摘要:即使人们仅将基于人工智能的助手视为工具,他们仍然将部分责任分配给这些系统来做出决策。
该研究调查了当人类驾驶员使用人工智能助手与非人工智能导航仪器时,参与者如何看待责任。参与者发现人工智能助手对成功和失败负有部分责任,尽管他们肯定这些系统只是工具。
这项研究为人们在人工智能参与决策时如何运用不同的道德标准来进行赞扬和指责提供了新的线索。
主要事实
- 该研究的参与者认为,与非人工智能驱动的工具不同,人工智能助手对结果负有部分责任。
- 研究发现,人工智能助手更多地被认为带来了积极的结果,而不是被指责带来了负面的结果。
- 交互方式,无论是口头的还是触觉的,都没有显着影响人们对人工智能助手责任的看法。
资料来源:慕尼黑大学
一项新的研究表明,即使人类将基于人工智能的助手纯粹视为工具,他们也会将部分决策责任归咎于它们。
未来基于人工智能的系统可能会在没有人工输入的情况下在交通中导航自动驾驶车辆。研究表明,人们认为这种未来人工智能系统在做出自主交通决策时与人类一样负责。然而,现实生活中的人工智能助手距离这种自主性还很远。
它们为人类用户提供支持信息,例如导航和驾驶辅助设备。那么,在这些现实生活中,当事情发生正确或错误时,谁该负责呢?人类用户?还是AI助手?
由心灵哲学主席路易斯·朗金(Louis Longin)领导的一个团队现在正在调查人们如何评估这些情况下的责任。
“我们的口袋里都有智能助手,”朗金说。
“然而,我们拥有的关于责任差距的许多实验证据都集中在机器人或自动驾驶汽车上,其中人工智能实际上处于驾驶座上,为我们做出决定。调查我们仍然是最终决定者的案例,但将人工智能更像是一种复杂的工具来使用,这是至关重要的。”
Longin 是一位专门研究人类与人工智能互动的哲学家,他与他的同事 Bahador Bahrami 博士和心灵哲学主席 Ophelia Deroy 教授合作,调查了 940 名参与者如何使用智能 AI 驱动的智能汽车来判断人类驾驶员。语言助理、智能人工智能触觉助理或非人工智能导航仪器。参与者还表示他们是否认为导航设备是负责任的,以及它在多大程度上是一种工具。
智能助手的矛盾现状
结果揭示了一种矛盾心理:参与者强烈主张智能助手只是工具,但他们认为智能助手对向他们咨询的人类司机的成功或失败负有部分责任。对于非人工智能驱动的仪器,没有发生这样的责任划分。
同样令作者感到惊讶的是,智能助手也被认为对积极结果而不是消极结果负有更大的责任。
“人们可能会采用不同的道德标准来评价和指责。当事故被避免并且没有造成伤害时,标准就会放松,使人们更容易将功劳归咎于非人类系统,而不是指责非人类系统。”集体责任专家巴赫拉米博士表示。
语言的作用不相关
在这项研究中,作者发现使用语言的智能助手和那些通过方向盘的触觉振动来警告用户的智能助手没有区别。
奥菲莉亚·德罗伊 (Ophelia Deroy) 表示:“在本例中,两者提供了相同的信息,‘嘿,小心点,前方有事’,但当然,ChatGPT 在实践中提供了更多信息。”她的研究考察了我们对人工智能的相互矛盾的态度,将其视为一种形式。万物有灵论的信仰。
关于 ChatGPT 等新型基于语言的人工智能系统提供的附加信息,Deroy 补充道:“交互越丰富,就越容易拟人化。”
Longin 表示:“总而言之,我们的研究结果支持这样一种观点,即人工智能助手不仅仅被视为推荐工具,但仍与人类标准相距甚远。”
作者认为,这项新研究的结果将对人工智能助手的设计和社会讨论产生深远的影响:“开发和发布智能助手的组织应该考虑社会和道德规范如何受到影响,”Longin 总结道。