天下网吧 >> 网吧系统 >> 系统动态 >> 正文

保护乘客还是行人?MIT邀你来替自动驾驶做决定

2016-8-9不详佚名

无人驾驶汽车紧急情况下撞狗还是撞罪犯?撞婴儿还是撞老人?人工智能全权处理这种问题显然不够让人放心,麻省理工(MIT)则想到一个好主意——把道德选择进行众包。

近日,麻省理工学院发布了一款名为“道德机器(Moral Machine)”的调查平台,采集用户对于无人驾驶汽车的道德倾向,以作为研究未来无人车道德决策的数据样本。

被调查者要经受一系列考验,以确定各个道德维度上的倾向。比如,刹车失灵时,是撞死闯红灯的行人,还是绿灯通过的猫和狗。

保护乘客还是行人?MIT邀你来替自动驾驶做决定

还有附带性别倾向的题目:是保护过马路的女性,还是保护车上的男性?

保护乘客还是行人?MIT邀你来替自动驾驶做决定

还有这种极个别情况:是保护车上的猫还是撞死罪犯?

保护乘客还是行人?MIT邀你来替自动驾驶做决定

爱范儿也参加了测试,得出的道德倾向从9个维度上进行解释,比如,年龄倾向、物种倾向、是否遵纪守法、保护乘客还是行人等等。

保护乘客还是行人?MIT邀你来替自动驾驶做决定

保护乘客还是行人?MIT邀你来替自动驾驶做决定

保护乘客还是行人?MIT邀你来替自动驾驶做决定

此外,受访者还可以自己创造其他情形,并浏览其他人的创造的道德抉择。MIT希望通过这种方式尽可能多的覆盖可能的情况。

MIT表示,当今的人工智能在为人类提供越来越多的支持,在某些领域甚至有代替人类的倾向。在可见的未来,驾驶就是一项可以被机器替代的工作。

机器在未来不可避免地要自行做出平常人类才会面对的道德抉择,有些情况下,还会牵扯到人的生命。

在紧要关头该保护谁,该抛弃谁,这是这个社会不愿面对,但是必须要解决的问题。

我们也看到,在测试过程中,歧视、法律观念等等平常我们避而不谈的价值观争议被暴露无遗。而想要进一步推进无人驾驶,社会上的每个人都需要正视这些丑陋的现实,并为未来无人驾驶的道德决断提供一个普世的准则。

MIT面对这个难题,选择了一条可能是最公正的路径——让成千上万的公众自己决定。

本文来源:不详 作者:佚名

相关文章
没有相关文章
声明
声明:本站所发表的文章、评论及图片仅代表作者本人观点,与本站立场无关。若文章侵犯了您的相关权益,请及时与我们联系,我们会及时处理,感谢您对本站的支持!联系Email:support@txwb.com,系统开号,技术支持,服务联系QQ:1175525021本站所有有注明来源为天下网吧或天下网吧论坛的原创作品,各位转载时请注明来源链接!
天下网吧·网吧天下