过去几个月,ChatGPT为人工智能技术按下加速键。这个聊天程序证明了超大参数模型和通用型人工智能的可行性,谷歌、亚马逊等巨头纷纷推出自主研发的相关平台,国内也已有十数家企业在该领域有所布局。

它们被统称为“生成式人工智能”。简单来说,这种AI可以通过算法生成新内容,包括图像、文字、音乐,甚至视频、代码等。


(相关资料图)

这令人兴奋也不乏担忧。数据安全、个人隐私、信息造假、算法歧视……各国监管部门对一系列潜在风险反应迅速,动作不断。

3月底,意大利个人数据保护局宣布暂时禁止使用ChatGPT,欧盟多个国家跟进,酝酿具体监管措施。美国商务部4月公开征求意见,讨论新人工智能模型在发布前是否应经过认证程序等内容。我国国家网信办也于近日发布《生成式人工智能服务管理办法(征求意见稿)》,针对准入门槛、数据来源、标注规则等作出明确规定。

风险到哪里 监管到哪里

“相比以往的AI技术,生成式AI可以直接利用自然语言和计算机进行交互,使用门槛低,生成内容质量高。”世辉律师事务所合伙人、律师王新锐对科技日报记者表示,“这让其一旦被滥用或误用,迷惑性比以往的人工智能技术更强,潜在损害也更大。并且它有可能成为一种影响各行业的底座型技术。”

除了涉及数据安全、个人信息保护等传统问题,中国互联网协会研究中心副主任吴沈括强调,生成式AI也给内容治理、社会运行产生冲击和影响,这给现有的治理体制机制的敏捷性、覆盖性和穿透性带来很大挑战。

据王新锐介绍,目前,意大利、西班牙、德国、加拿大、英国等国家出于数据和隐私保护的考虑对ChatGPT及其开发者展开调查,此外,域外有可能将ChatGPT等生成式AI列入高风险人工智能清单,希望通过立法防范其风险。

吴沈括表示,前述主要国家对于生成式AI的监管依然从经典的数据治理、数据安全的角度切入,在他们看来,生成式AI的核心逻辑在于海量数据的汇集、加工、处理以及丰富的运算输出,因此,采取数据治理的思路顺理成章。

但回到我国,仅从数据治理出发还不够,“我们的关切涉及内容治理、消费者权益、透明度、公平性、知识产权保护等各个方面,基本覆盖了目前与生成式AI相关的主要风险类型,故而采取的是一种风险预防、风险干预的多层次综合治理思路。”吴沈括说。

建构多方参与的治理生态

技术大步向前,如何平衡技术创新和政策管理,考验各方智慧。

“一方面,我们需要加强数据隐私和个人信息安全的保护,对生成式AI从训练到投入使用的全生命周期的个人信息的处理和数据保护作出规范。另一方面,从生成式AI可能带来的风险出发,在现有法律框架上进一步建立健全生成式AI产业各方主体治理框架和问责机制,落实生成式AI相关主体的权利义务。”王新锐说,下一步需要进一步细化落实平台合规机制、加强科技伦理要求、确保算法安全并建立健全问责机制、促进高质量数据合法合规地流通共享。

吴沈括提出,治理规则的明确性和确定性需要不断提升,努力打造实时、敏捷、全面的监管机制,最大限度发挥监管的引导作用及红线保护的根本价值。

生成式AI爆火,涉及诸多利益诉求及关切。对此,王新锐建议,需要充分观察产业界和监管机构、大众媒体的互动,建立多方参与的治理机制。同时,加强公众教育和参与,提高公众对生成式AI的认识和理解,共同推动生成式AI的健康发展。(记者 崔 爽)

推荐内容