建立人工智能和自治系统的科学家需要对自己的工作可能产生的影响有深刻的道德理解。
最近有100多位技术先驱人物就致死性自主武器或“杀手机器人”的主题向联合国发表了公开信。
这些人,包括企业家埃隆·马斯克(ElonMusk)和多家机器人公司的创始人,都是2015年开始的努力的一部分。最初的信呼吁结束军备竞赛,它声称这可能是“继火药和核武器之后的第三次战争革命”。
联合国可以发挥作用,但是对这些系统的未来负责还需要在实验室中开始。培训我们的AI研究人员的教育系统需要对他们进行道德和编码方面的教育。
人工智能的自主性
自治系统可以自己做出决策,而几乎不需要人工输入。这大大提高了机器人和类似设备的实用性。
例如,一架自动送货无人机只需要送货地址,然后就可以自己制定出最佳路线-克服其在途中可能遇到的任何障碍,例如恶劣的天气或一群好奇的海鸥。
对于自治系统已经进行了大量研究,并且诸如亚马逊之类的公司目前正在开发交付无人机。显然,可以很容易地使用相同的技术进行比食物或书籍还差的交付。
无人驾驶飞机也变得越来越小,更便宜,更坚固,这意味着制造和部署成千上万的无人驾驶飞机很快将是可行的。
部署这样的武器系统的潜力在很大程度上与人为控制脱钩,促使这封信敦促联合国“找到一种保护我们所有人免受这些危险的方法”。
伦理与推理
无论您对此类武器系统有何看法,该问题都凸显了在AI研究中需要考虑伦理问题的必要性。
与大多数科学领域一样,要获得必要的深度以对世界的知识做出贡献,则需要专注于特定主题。研究人员通常是相对狭窄领域的专家,可能缺乏任何有关道德或道德推理的正式培训。
Google自动驾驶汽车。图片来源:RomanBoed,抄送BY-NC
正是越来越需要这种推理。例如,在美国接受测试的无人驾驶汽车将需要能够对潜在危险情况做出判断。
例如,如果一只猫意外横穿马路,它将如何反应?越过猫咪,或急转弯避开猫咪,冒着对乘车人造成伤害的风险,这更好吗?
希望这种情况很少见,但在设计汽车时,需要牢记一些特定原则以指导其决策。正如弗吉尼亚·迪格纳姆(VirginiaDignum)在最近在墨尔本举行的国际人工智能联合大会(IJCAI)上发表其论文《负责任的自治》时所说的那样:“无人驾驶汽车将具有伦理道德;问题是谁?”
NaveenSundarGovindarajulu和SelmerBringsjord在“自动化双重效应学说”一文中探讨了类似的主题。
在双重效应的原则是推理道德问题,如在特定情况下的自卫权的一种手段,并记入13世纪的天主教学者托马斯·阿奎那。
本站信息仅供参考,如有文章涉及版权问题,请速与我们联系:2811358863@qq.com | 网站地图
备案号:桂ICP备2023007194号 © Copyright 2024 56常识网 Inc.All Rights Reserved. 桂公网安备45030502000552