AIGC时代的信息真相:应对价值观偏见与网络安全挑战
随着大模型企业的迅速发展,网络安全和价值观对齐的问题变得更加突出。在技术进步与内容规范之间找到平衡,是当前亟需解决的难题。
7月25日下午,一场以“AIGC时代的信息真相:识别与应对价值观偏见”为主题的活动在上海徐汇区模速空间举行。此次活动是上海市委网信办“清朗e企来”系列惠企沙龙2024年的首场活动,旨在探讨AIGC时代信息安全建设的有效途径。
大模型时代的治理挑战
在新技术背景下,网络安全治理发生了巨大变化。保证大模型生成内容的真实性和价值观对齐,面临更大挑战。
百度安全副总经理冯景辉表示,大模型时代的真实信息辨别比互联网时代更加复杂。一方面,大模型产品存在“幻觉”缺陷,许多错误信息并非人为故意,而目前没有技术手段能够彻底解决这一问题。另一方面,黑灰产业利用AI技术生成违法内容,使得违法行为更加隐蔽。2023年4月,网络安全公司Darktrace发布报告指出,ChatGPT等生成式AI导致网络钓鱼邮件攻击增加了135%。
北京开普云信息科技有限公司副总裁王瑛指出,大模型时代生成内容有几个明显特征:生成内容传播碎片化和不可复现性,由于环境差异,相同问题在不同终端上的答案可能不同,导致传播效果的度量更复杂;大模型处理输出的信息可能会在全网范围内产生二次污染。
冯景辉认为,大模型时代企业的治理难度更大。在传统互联网搜索引擎时代,用户使用搜索引擎时,搜索结果会引导用户到相关资源,责任主体并不完全是搜索企业。但在AI搜索时代,搜索企业成为了主要责任方,甚至可能承担高达80%的责任。此外,面向消费者的大模型产品不仅限于语言模型,多模态大模型的发展增加了安全治理难度,比如图像中文字内容的合规审核等。
数据清洗的重要性
冯景辉指出,大模型构建过程分为训练阶段、部署阶段和业务运营阶段,每个阶段都面临不同的安全风险。大模型企业需要在这三个阶段采取措施确保价值观对齐:通过数据清洗和安全对齐,实现模型内生安全;内生安全与外层防护结合,实现纵深安全;关注Agent安全,通过弱点分析发现问题。
在大模型训练阶段,数据清洗尤为关键。“数据是大模型核心竞争力的基础,好的数据决定了大模型的问答能力。”冯景辉介绍,在文心大模型训练过程中,百度投入大量人力、物力和财力来清洗数据,确保生成内容的质量。他补充说,目前他们通过检索增强和小模型代答敏感问答来降低安全风险。小模型因语料较少且数据干净,不易产生幻觉,适合部分代答场景。
开普云副总裁兼首席技术官杨春宇表示,从模型层面看,大模型企业可以通过调整模型加强安全措施;从系统层面看,检测模型输入和输出可能是一种更具性价比和可控性的方法,但仍需监管部门进行抽检或自检以确保模型安全。
治理与模型能力的同步发展
当前,生成式AI的伦理和安全治理已成为全球AI领域的共同议题。欧盟已批准的《人工智能法案》是世界上首部全面监管AI的法案。根据AI使用方式,法案对AI施加不同程度的监管要求。
中国自大模型技术发展初期就高度重视治理,相关部门出台的法律法规为行业发展设定了底线。包括2023年7月发布的《生成式人工智能服务管理暂行办法》,该办法鼓励生成式人工智能创新发展,并对其服务实行包容审慎和分类分级监管。
杨春宇认为,促进大模型生态系统的健康发展,需要在治标和治本两个层面共同努力。具体来说,大模型企业需要从语料质量入手,并在应用环节进行改进和提升。同时,企业需与网络监管部门合作参与大模型治理。大模型时代的安全治理需要社会各界共同投入。
冯景辉表示,AI能力与AI治理应当同步发展,技术进步离不开规范治理,治理也能促进AI技术的发展。在内容审核和治理方面,同样需要技术不断迭代和更新。目前看来,技术发展还有很大空间;在监管方面,也需要在监管细节上达成进一步共识。
声明:本站所使用的图片文字等素材均来源于互联网共享平台,并不代表本站观点及立场,如有侵权或异议请及时联系我们删除。