财经与科技
7分钟阅读
人工智能的困惑:从“我们是否应当监管”到“我们应如何监管”
欧盟在为一种既令人兴奋又具备道德和伦理含义的科技创新制定法律框架方面走在了世界前列。
人工智能的困惑:从“我们是否应当监管”到“我们应如何监管”
人工智能的困惑
13 小时前

在短时间内,可以在法规范围内进行评估。风险导向的方式也体现在欧盟人工智能法案中。在这里,风险被理解为对健康、安全和基本权利的威胁。这种基于风险的方法指的是与人工智能系统可能带来的危害成正比的法律合规方案。带有不可接受风险的人工智能系统是被禁止的。例如,在工作场所或教育机构使用的情感识别系统被认为具有不可接受的风险。因此,根据欧盟的人工智能法案,任何用于评估工人情绪或学生注意力的人工智能系统都是被禁止的。任何基于人工智能的教育技术程序提供者在进入欧盟市场时应考虑这一点。

另一方面,如果某人工智能系统符合欧盟法规定义的高风险,提供这些系统的供应商有义务满足法规中列明的审计及其他条件。根据人工智能法案,招聘过程中使用的候选人筛选工具就是一种高风险的人工智能系统。自从这些工具开始用于招聘广告或面试以来,偏见和歧视等法律问题也随之浮现。因此,像其他高风险人工智能系统的提供者一样,人力资源技术的提供者也必须牢记合规和相关负担。

然而,提供通用人工智能模型(如OpenAI的ChatGPT)的供应商必须遵守更加严格的义务。根据妥协文本,只有在采取必要保障措施的情况下,在现实世界中测试人工智能系统才不会被禁止。为了支持创新,专门为科学研究和开发而开发的人工智能系统和模型则被排除在人工智能法案的范围之外。

直到2022年OpenAI发布ChatGPT之前,一些人曾认为伦理原则或行为规范足以防范人工智能系统的风险。主要在美国,人们普遍相信任何监管尝试都会妨碍创新,这就是美国在进行任何监管努力时犹豫不决的原因。相反,从奥巴马总统任期开始,便制定了与人工智能相关的路线图。然而,仅有最小监管和最大创新的方法对于应对大型语言模型带来的许多风险显得不够。

因此,在2023年11月的英国人工智能安全峰会前,美国一项关于人工智能的总统行政命令应运而生。美国的人工智能监管已不再是遥远的可能性。自2022年OpenAI发布ChatGPT后,快速发展的人工智能技术对美国产生了深远影响。生成性人工智能模型的隐私和安全风险远高于以往技术,因此,借助技术手段和有效法律法规来降低这些风险成为可能。

基于此,美国的法律法规已经纳入议程。2023年10月30日,美国发布了其最全面的人工智能规则框架。该命令要求人工智能公司在开发模型时提高透明度,创造诸如标记由人工智能生成的内容等新标准。该命令的目的是根据白宫的说法,增加“人工智能的安全性和安心感”。然而,商界对这一命令的有效性表示怀疑,认为其“过于宽松”且具有争议性的约束性。

值得注意的是,文本中包含开发者需将安全测试结果与美国政府共享的义务,尤其是当安全测试显示技术可能对国家安全构成风险时。2024年有望成为人工智能发展与部署监管努力的里程碑,这将伴随在数据战略下颁布的真实法律。因为数据及其控制定义了人工智能革命,数据治理、数据保护和开放数据空间的法律框架将成为人工智能法的核心,此外还要有关于这项技术的具体规则。

为了未来的美好愿景,必须找到一个法律框架,使每个人都能从这些技术中受益。正如J.R.R.托尔金在《霍比特人》中所言,那些无忧无虑和完美的事物不会成就故事;所有故事都值得在复杂和困难的时代讲述。今天,正如往常一样,我们处在一个充满挑战和不确定的时期。与其单单抱有乐观,不如采取更为决定性的态度,显得更为可行和更有意义。托尔金的引述将成为推动所有人创造21世纪新故事的力量。

快速浏览TRT Global。分享您的反馈!
Contact us