【创新谈】
◎胡定坤
近日,国家互联网信息办公室等四部门联合发布《人工智能生成合成内容标识办法》(以下简称《标识办法》),自2025年9月1日起施行,强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》也将同步实施。
近年来,人工智能(AI)技术突飞猛进,AI生成合成的文字、图片、音视频等在网络平台迅速传播,在丰富信息内容的同时,也成为编造虚假信息、扰乱传播秩序、实施新型诈骗的帮凶。有利用AI撰写假新闻、造谣博眼球者;有假手AI发表评论,打造“智能水军”者;还有深度造假知名院士视频,带货宣传护肤品者;更有借助AI假冒明星,骗取老人钱财者……
AI技术给虚假信息披上高科技“伪装衣”,使“耳听未必为真、眼见未必为实”,且技术还在不断迭代,迷惑性越来越强。防范AI造假,不仅仅是网络平台的责任,依靠公众的“火眼金睛”去识别造假行为更不现实。
给AI生成合成内容添加标识,是从源头上治理AI造假的有效手段。如果把AI生成合成内容比作一种特殊产品,制作内容的AI服务商就是厂家,传播内容的网络平台就是商店。《标识办法》规定,厂家在产品出厂时要贴上标识引起商店关注,商店也要在销售时通过贴标识等方式提醒消费者注意。其作用就是从内容生产和传播的源头入手,给“AI造”打上识别码,使其更容易被网络平台检得出、被社会公众看得见。公众知道眼前信息源自AI,也就不会轻易上当受骗。
AI正在蓬勃发展,我们既要加强对其有违伦理方面的治理,但又不能因这种治理而阻碍技术进步。显然,制订《标识办法》注意到了这种平衡。比如,并未强制要求AI服务提供者采取难度过大、成本过高的标识技术,而是创新提出多种低成本标识方法,以避免增加企业负担、导致其对AI技术研发的投入受到影响。制订强制性国家标准,也充分吸纳了AI领域高科技企业的专业意见。相关部门的这些举措,体现了“统筹发展和安全”的治理理念。
当然,治理AI造假,除了信息标识,技术防范同样不可忽视。比如,对网络平台上没有依规标识的AI生成合成内容该如何检测?怎样提升检测能力?如果未检测识别出来且造成不良社会影响的,责任应当如何划分?还有,对那些我国法规约束之外的境外AI工具生成合成内容,其发布和传播该怎样管理?这些,都是在《标识办法》实施中值得关注和解决的问题。
AI可以拟人、助人,但不能骗人、坑人。我们相信,《标识办法》的发布和施行,将有效治理“AI造假迷人眼”的乱象,还网络空间以清朗,促AI发展之健康。
0 条