生成式人工智能与AGI监管
马斯克等社会名流在3月底共同签署了一份公开信,呼吁机构如OpenAI暂停6个月的高级通用人工智能(AGI)研发,以便人类社会能够就AGI威胁达成协议。这封信涵盖了许多问题,其中包括AGI带来的信息泛滥和谎言宣传的问题,以及是否应该让AI取代人类喜欢且满意的工作。此外,人们还在思考这种效率提升是否值得冒着失去对文明控制的风险。关于AGI的监管体系应该如何建立也是一个重要的问题。这封信引发了硅谷范围内关于AGI发展的激烈讨论,因为人们对于AGI的发展还存在很多未解决的问题和争议。与此同时,AGI已经开始在全球范围内制造麻烦,虚假信息和信息泄露成为令人不安的问题。因此,包括欧美日韩在内的许多发达国家开始讨论对大型模型的监管。国家互联网信息办公室在4月11日发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《办法》),这份文件在AGI监管中具有重要意义。监管者的角度通常是人们理解AGI的一个独特视角,与科学家的视角有所不同,其思考更加接近大部分人的直觉。但由于监管者同时也代表核心专家群体的思考,因此也能回应许多关于新事物的讨论。因此,《办法》可以成为普通人理解AGI的一个窗口,帮助我们更好地参与AGI讨论。AGI并不是天使,也不是魔鬼,经过祛魅后的AGI将成为我们公共生活中重要的一部分。
AGI可以被定义为大型模型,从硅谷的角度来看。它是通过优化的模型、结构语料库和庞大的计算能力组合而成的,具有一定智慧特征的计算机程序。《办法》将这个新物种划归为生成式人工智能行业,即基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。显然,这是从AI与社会关系的角度出发的。AGI的技术特征可能会发生改变,模型的大小可能会变化,但它始终追求与社会的互动。不论一个模型封闭开发多久,其最终目的都是为社会提供内容。这与过去垂直AI领域的辅助决策、检索、安全、支付等方面的区别是核心的。从技术远景来看,任何广泛用户基础的生成式AI产品很有可能具备AGI的底层能力。对于普通人来说,AGI这个名词可能有些过于迷人。许多人将AGI与人类智慧相提并论,仿佛看到了一种超越人类的灵魂,而忽略了AGI只是具备一定智慧的初步形态,其未来发展还存在巨大的不确定性。因此,我们未来可能迎来的是一个生成式人工智能的世界,这更符合我们这一代人的技术现实。
在AGI伦理讨论中存在一个经典问题:大型模型生成的内容,版权到底归属于大型模型公司还是用户提供prompt的辛苦劳动?《办法》没有明确规定版权归属,但确立了相应的责任义务,供更多人参考。根据《办法》,提供生成式人工智能产品的服务组织和个人(以下称为提供者),承担该产品生成内容的生产者责任,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等。从这个角度来看,负责人既不属于大型模型的开发人员,也不属于用户,而是属于连接大型模型和用户之间的服务提供者。当然,在大多数情况下,AGI的开发者和API提供者是同一个主体。然而,随着技术生态的发展,不同层次的主体可能变得多元化。明确中间的服务提供者承担责任,也符合生成式人工智能的官方定义。同时,这种权责划分也迫使上游产业链必须建立足够的内容互信。
AGI的内容权问题与版权问题类似:AGI的内容是否应该与人类享受的内容享有同等权利?《办法》明确限制了AGI的内容,并在两个方面提到了这一限制:根据《互联网信息服务深度合成管理规定》,对生成的图片、视频等内容进行标识;提供者应根据国家网信部门和相关主管部门的要求提供必要的信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。关于AGI的内容一直存在争议,特别是在GPT内测时,系统有时表现得像一个村口玩手机的大爷,直接给用户一些带有价值判断的观点,却没有足够的信息佐证。如果《办法》得以实施,AGI将不再是没有说服力的内容输出,转而成为一种类似搜索工具的属性。类似过去用AI合成作品参加美术比赛并获奖的情况将成为历史。
这与法律的精神是相符的。AI在内容生成方面具有绝对的优势,因此需要承担更多的举证责任。多模态内容的形式可能存在巨大的风险,因此需要相应的限制机制。相反地,如果将AGI的内容与人类的内容完全平等对待,可能会对人类自身的内容生态产生难以评估的影响。
"监管生态"是指在OpenAI的公开信中提出的一个概念。它提出了需要建立一个审计生态,而不是一个体系。公开信还引用了阿西罗马AI原则,即先进的AI对人类的影响将具有文明级的影响。因此,对于AI的规划和管理所需的资源应该与其本身消耗的资源相匹配。换句话说,如果生成式AI将成为一个庞大的体系,那么监管不能仅仅依靠某个环节或某个主体来实施。除了强调现有法律的监管地位外,《办法》还强调对生成式AI的全流程监管。例如,语料库("预训练数据")必须合法合规,数据标记必须遵守明确的标注规则,使用场景必须符合规范并承担相应责任,内容本身需要进行标注,用户使用过程中必须提供明确的举报反馈通道等等。由于AGI将成为一个庞大的生态基础,监管者需要以更多元化的方式执行监管任务。因此,尽管大型模型具有一定的黑箱属性,但通过一整套组合策略,也足以揭示技术黑箱背后的合规能力,从而实现"开箱"的目标。为了进一步明确开发者的责任,《办法》还增加了一条规定:"对于发现在运行中或用户举报的生成内容不符合本办法要求的情况,除了采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。"换句话说,如果监管方只想通过"内容过滤"来逃避进一步的模型优化责任,在《办法》中是违规的。AGI需要一个合规的灵魂,而不仅仅是合规的API。
"驯火"是一个常用的比喻,将AGI的发展比作"火"的发明。人类学会了制火,并享受了火带来的文明成果,但同时也需要花费更多的时间来"驯火"。在前面提到的公开信中,提出了好的AGI应该满足准确、安全、可解释、透明、鲁棒、对齐一致、值得信赖和忠诚等几个标准。换句话说,AGI绝不能像现在这样成为一个玄学般的黑箱。它应该对人类产生更高程度的利益确定性。因此,公开信提出了更多关于技术监管的远景设想,例如建立一个庞大而专业的算力规模的监管体系,达成某种底层的代码公约等等。这些提议是否值得实施,需要更多的行业讨论。但一个相对确定的事情是,就像人类在"驯火"过程中更加了解"火"一样,人类社会只有通过与AGI的不断互动和博弈,或许才能更好地了解AGI的本质。
免责声明:本内容来源于第三方作者授权、网友推荐或互联网整理,旨在为广大用户提供学习与参考之用。所有文本和图片版权归原创网站或作者本人所有,其观点并不代表本站立场。如有任何版权侵犯或转载不当之情况,请您通过400-62-96871或关注我们的公众号与我们取得联系,我们将尽快进行相关处理与修改。感谢您的理解与支持!
请先 登录后发表评论 ~