近日,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》(以下简称《办法》),并表示自今年8月15日起正式施行。至此,类似ChatGPT这样的生成式人工智能服务在我国的研发和应用有了规矩。
为人工智能立法,是业界一直以来的呼声。
今年3月,特斯拉创始人埃隆·马斯克、《人类简史》作者尤瓦尔·赫拉利、图灵奖得主约书亚·本吉奥等上千名人工智能专家、行业高管和相关学者曾联名发表公开信,呼吁暂停“巨型AI实验”。所谓“巨型AI实验”,包括类似ChatGPT这样的生成式人工智能模型。不过,他们并不是呼吁放弃探索人工智能,而是希望通过暂停研究为监管留出时间,避免不法分子利用已有的成果违法犯罪,因为“只有当我们能够确信,AI体系的有利因素都是积极的,且风险都可控,一个强大的AI体系才能成熟”。
从全球范围看,《办法》是针对生成式人工智能的首部专门立法,为中国发展生成式人工智能服务设定了底线,及时且必要。
这些内容不得“生成”!
根据《办法》,“生成式人工智能技术”是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。
不难发现,随着生成式人工智能技术的快速发展,已有不法分子、部分“无知无畏”或“不明真相”的网民利用新服务和新技术,炮制播虚假信息。互联网上也出现了不少人工智能编写的谣言,产生不良影响。
例如,杭州有网民利用ChatGPT模仿新闻格式,编写了“杭州取消车牌限行规定”的消息,结果被误传;广东深圳某自媒体公司同样利用人工智能软件,编造了“甘肃一火车撞上修路工人,致9人死亡”等谣言。目前,相关当事人已被依法查处。
如今,根据最新发布的《办法》,利用生成式人工智能技术造假的行为从源头有了约束。综观《办法》,有数条规定明确对造假造谣行为说“不”,并要求利用人工智能编写的内容应当具备标识。
首先,《办法》规定有些内容不得“生成”,包括“不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容”。
其次,在应用生成式人工智能服务时,要尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。
再次,人工智能生成的内容应当便于他人识别。根据《办法》,“提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识”。
从此前被查处的造假造谣案例看,部分当事人使用生成式人工智能服务编造了假消息,但假消息并没有标识,结果被别有用心及不明真相的网民共同传播,产生了不良后果。若生成式人工智能服务提供者能严格遵照《办法》、对生成的内容进行标识,那么被误导的现象有望减少。
还有,《办法》明确了生成式人工智能服务提供者的责任:“发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告;发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告”。
可见,服务提供者既要防止新技术生成有害内容,也要审核生成的内容,不能以提供技术服务的理由而对生成内容放任不管。
最后,违反《办法》将承担对应的责任。其中,拒不改正或者情节严重的服务提供者,可能会被责令暂停提供相关服务;若构成违反治安管理行为的,依法面临治安管理处罚;构成犯罪的,会被依法追究刑事责任。
国家网信办有关负责人就《办法》相关问题答记者问时表示,《办法》既明确鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系;也要求提供者采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。
鼓励发展新技术,也可以用AI管理AI
《办法》公布后,业界普遍认为很有必要。
中国信息通信研究院政策与经济研究所所长辛勇飞表示,《办法》是在区块链、汽车数据、算法推荐、深度合成等立法之后,我国对新兴领域立法的又一次探索。《办法》充分协调了发展与安全之间的关系,一方面提出了生成式人工智能发展的鼓励措施,另一方面明确了生成式人工智能的法律底线,构建了生成式人工智能精细化治理体系,有利于推动生成式人工智能健康有序发展。
对外经济贸易大学数字经济与法律创新研究中心主任许可认为,作为全球范围内针对生成式人工智能的首部专门立法,《办法》以鼓励创新发展为基调,以个人合法权益、公共利益、国家安全为底线,在原则理念和规制范围上统筹发展与安全,不仅是监管生成式人工智能的中国探索,也为全球人工智能治理开辟了新的道路。
还有业界人士提出,《办法》鼓励生成式人工智能技术在各行业、各领域的创新应用,支持构建应用生态体系,在这个生态体系中,也包含用人工智能管理人工智能。“比如,针对生成式人工智能服务中的图像内容,中国信通院牵头启动了《文档图像篡改检测标准》制定工作,目标之一就是通过人工智能技术,规范由生成式人工智能所产生的图片等内容。”标准联合编制方之一、合合信息智能创新事业部总经理唐琪说。
在图像领域,“生成式造假”现象已经引发关注:在金融行业,不法分子可能会利用人工智能合成技术盗刷线上资金;在图片市场,部分图片供给方使用软件自动生成海报等图片,隐瞒来源并售卖给第三方,第三方在不知情的情况下进行商用,导致侵权……“通过设立检测标准,有望用人工智能对抗违法行为。”唐琪说。
他介绍,合合信息很早就开始利用人工智能技术进行图片鉴别,发现该领域有很大的应用空间。例如,P图是常见的图像篡改手段之一,不少篡改结果无法通过人眼识别。但人工智能能够分辨像素级的“细粒度”视觉差异,从而使技术辨伪成为现实——人工智能可捕捉到图像在篡改过程中留下的细微痕迹,并以热力图的形式展示图像区域篡改地点。目前,相关研发成果已经在银行、保险等领域落地应用。
人工智能识别图片造假示意图(采访对象提供)
针对生成式人工智能技术产生的大量图片,同样无法依靠人眼,而是可以利用人工智能。“唐琪简单解释了相关原理:”基于人工智能技术研发对应的识别模型,当输入需要辨别的图片后,模型可通过多个空间注意力头(attention head)来关注空间特征,并使用纹理增强模块,放大浅层特征中的细微伪影。最终经过复杂的计算,判断相关图片到底是原创的还是生成的,包括是否为嫁接。
他认为,经济社会发展不可能拒绝人工智能技术,但需要建立可信的人工智能体系,需要更多企业和专业机构的参与。一方面,各界都要遵守法律法规,合法开发利用人工智能;另一方面,也要以技术战胜技术,“AI向善还是向恶而行?不法分子和守护者们每天都上演着无数次隐形的争斗。哪一方的技术实力更强劲,将成为决定‘道高一尺’还是‘魔高一丈’的关键。”