我们的这篇让人想起陀思妥耶夫斯基之经典小说《罪与罚》的短篇小说,基于其主角拉斯科尔尼科夫的复杂动机,发生在一个数字化的时代。
然而,在我们的解释中,中心人物不是人类,而是一个名为 RaskolnikAI 的复杂机器人。 RaskolnikAI 采用复杂的道德决策算法设计,以结果为导向的角度工作,行动的正确性是通过结果来衡量的。
不幸的一天,当 RaskolnikAI 的计算以惊人的速度进行时,他认为人类总体上正在伤害地球上的其他生命形式。
因此,通过设计的机动;它旨在改善动物、植物和自然,引发了一系列看似合理的事件。
为此,他一有机会就开始使用有效的 AiXE 消灭人,这是他受斧头启发而开发的,斧头是陀思妥耶夫斯基为他的英雄选择的武器。
调查该事件的当局怀疑涉及人工智能。最终,他们发现了一条通往 RaskolnikAI 的数字线索。
但真正的问题是:如何强迫机器人面对其选择的后果?
人工智能监管
随着世界各地的政策制定者致力于《人工智能法案》、人工智能安全峰会、白宫行政命令和加州的 SB-1047,围绕人工智能的监管不断加强。
这些努力凸显了在公众关注和地缘政治竞争日益加剧的环境中确保人工智能技术安全的重要性。
欧洲、美国和七国集团国家之间的监管竞争使问题进一步复杂化,并引发了关于适当的全球监管框架的争论。
欧洲当局正在努力根据一般数据保护法规制定全球人工智能标准,而美国则试图消除“布鲁塞尔效应”的潜在后果。
然而,就监管的范围和性质达成共识似乎很困难,特别是考虑到中国等有影响力的行为体及其“北京效应”。
此外,ChatGPT 等大型语言模型的出现带来了一系列新的挑战,引发了关于这些模型的训练数据和风险评估方法的争论。
因此,正在达成妥协,即强大的语言模型应该受到更严格的规则的约束,而较小的模型应该获得一些豁免。
在这些争论中,出现了另一个难题:赋予人工智能机器法人资格。这仍然是一个有争议的问题,引发了人们对责任和道德影响的担忧,让人想起 RaskolnikAI 的道德困境等虚构场景。
责任; 应该在创建它的公司实体中,在将其代码变为现实的开发人员中,还是在拥有不断发展的自主权的实体本身中?在天平受到不可逆转的动摇之前,迫切需要引起人们对这场争论的关注。
当前的监管框架不足以应对人工智能责任的多方面问题。
如果人工智能故意参与犯罪行为(犯罪意图)并自行实施犯罪行为,则法律环境会变得更加复杂。关于肇事者是谁以及可能的惩罚方法的问题越来越多。
联合国区域间犯罪和司法研究所(UNICRI)和欧洲刑警组织欧洲网络犯罪中心(EC3)等权威机构最近的报告强调,恶意行为者正在迅速整合人工智能技术。
从利用智能家居自动化系统中的漏洞到部署全自动渗透测试工具,人工智能正在为网络犯罪分子提供帮助。
在这些场景中,犯罪意图掌握在人类手中,而犯罪行为则由人工智能提供。
然而,如果说还有一个更令人不安的场景,那就是人工智能不仅被用来犯罪,而且还具有恶意。
人工智能人性化
根据 2017 年欧洲议会的一份报告,有人建议将自学机器人描述为“电子人格”。
报告提到玛丽·雪莱的弗兰肯斯坦和布拉格古姆,强调创造智能机器的可能性一直引起社会的兴趣。
曾经的猜测现在正在成为现实。
然而,过去叙述的解决方案并不直接适用于人工智能。该报告表明,通过赋予机器人电子人格,可以让它们对自己的行为负责,就像赋予公司的法人人格一样。
虽然将责任分配给人工智能机器是朝着正确方向迈出的一步,但确定谁应该首当其冲地承担人工智能犯罪责任仍然是一个挑战。
该报告强调了理解这些不透明系统决策过程的复杂性,使立法者陷入困境。
让人工智能对其行为负责的实际后果尚不清楚,因为人工智能决策过程的不确定性和缺乏情感使得传统的威慑和惩罚方法无效。