AI大模型与算法监管(1)

发布时间:2024-03-15 10:08:26 浏览量:139次

这两天在看设计上海2023,论坛与展会展品不乏与AIGC相关的内容。比如:

  • 在是否将AIGC引入设计流程的问题上,可以看到有事务所、设计师在测试、使用生成式AI工具,不过主要是作为辅助设计工具。有设计师提出一个好的设计除了要有设想,还必须有策略、计划与执行,AIGC工具目前主要被用于创意灵感探索,在策略、计划与执行上,尤其是在分析判断创意实现的最佳解决方式等策略问题上,还无法取代设计师;也有设计师对AIGC内容知识产权权利归属与维权问题表示顾虑。
  • AI生成内容是否可以直接进入生产制造环节也是需要考虑的问题。现场看到有家居品牌表示“可以将您的AI概念产品进行设计优化,为天马行空的创意提供落地的可能性,做真正意义上的定制化服务”。进行设计优化的必要性其实不难理解,概念设计需要找到机器设备进行制造加工,即使是已经引入柔性生产线或者3D打印生产线的制造商也未必能完全满足客户个性化的定制需求,需要根据自身生产能力进行设计优化。现场也看到有设计公司、新材料制造商和家居品牌展出3D打印产品与解决方案,比如科勒卫浴的3D打印台盆,不过都是设计师主导作品。逛展时还没注意到有特别介绍工艺流程是AI设计到成品交付的。

同天的北京安博会,用媒体报道的话说就是“大模型应用扎推、AI摄像头满场”:

  • 安防领域的企业往往基于各种感知设备拥有强大的数据获取能力,在AI大模型等前沿技术的研发应用上有天然优势。
  • 展会现场有不少企业推出通用或行业大模型,比如杭州联汇展出百亿参数视觉语言认知大模型及相关服务,支持语义定义下发任务,具备泛化识别和推理能力;熵基科技BioCV LLM包括140亿/70亿/13亿等多个参数规模的版本,支持多语言表达与理解、持续绘画、逻辑推理等能力;360现场展示基于360智脑-视觉大模型的应用,demo显示其具有文字识别能力和图片识别能力——视觉问答支持通过一张图片以及提出关于图片的一个问题,系统输出相应的答案。
  • 在应用场景方面,除了在传统安防领域的应用,大模型+AIoT应用场景广阔,比如,宇视展出的梧桐AI算法训练平台、AIoT行业大模型,据称已落地多模态-Vlog智能影像等AIGC场景。

从厂商们展出的产品及解决方案来看,生成式人工智能在模型参数、数据输入和输出方面呈现大模型、多模态和涌现性等特征,对现有算法监管带来挑战:

  • 模型参数规模巨大且呈爆炸式增长,超大规模的参数量可以提升算法决策的准确性,但是同时也降低了算法的可解释性,进而直接影响算法透明性治理;
  • 大模型从文字识别发展到能够同时接受图像和文本类型的输入,后者对大模型的信息鉴别能力要求更高,在预防偏见与歧视等算法公平治理方面挑战也更大;
  • 在参数规模、数据量突破某个量级时,可能会出现大模型性能显著提升、涌现出令人意想不到的能力,比如语言理解能力、生成能力、逻辑推理能力(最近大家用的比较多的描述可能是“一本正经胡说八道”的能力),这种涌现特性虽然会增强人工智能的认知性、扩展多场景应用的潜能,但同样也会带来难以量化、难以检测、难以救济的算法妨害风险。现有主体责任制+场景化监管的现有监管模式即使可以满足事后追责要求,也因缺乏有效的事前预防、事中监督等具有预防性、时效性、实效性措施而难以应对算法妨害效应。

这些特征在行业研报、白皮书等文件中也有所体现,比如,IDC《2022中国大模型发展白皮书》中写道,“以谷歌的BERT、OpenAI的GPT和百度文心大模型为代表,参数规模逐步提升至千亿、万亿……”(现在通用性AI大模型M6已有十万亿级),“继语言模态之后,视觉大模型等其他模态的大模型研究,也开始逐步受到重视”,“单模态的大模型被统一整合起来,模拟人脑多模态感知的大模型出现,推动了从AI感知到认知的发展”,也就是推动从弱人工智能到强人工智能的发展。

除此以外,最大的挑战还是算法治理模式本身的挑战:

  • 我国的AI算法治理依托算法主体责任展开,现有算法责任主体主要是算法推荐服务者和深度合成服务提供者,基于算法规定、深度合成规定等识别相关主体责任义务的边界、明确违规后果,本身并不难。问题是,算法推荐服务者、深度合成服务提供者往往也是监管视野下的平台企业,算法主体责任是平台主体责任构成的一部分,如何处理平台主体责任、平台主体的算法安全主体责任、承担责任的方式方法等等,还需要更为明确的监管规则。
  • 算法规定本身针对算法推荐服务者、深度合成服务提供者,而人工智能相关的大模型风险不仅可能源于研发主体,也可能源于部署算法模型的部署者以及终端使用者,当应当承担主体责任的对象呈多元化、分散化、场景化特征时,仅界定服务提供者的主体责任,难以满足追责与风险处理需求。

举个例子,前面我们写过生成式人工智能相关的产业链至少可以分为数据层、算力层、算法模型层和应用层。位于产业链上游的研发主体,能够控制技术基础设置、对模型进行训练/修改和测试;其下游主体可对大模型微调后,将其嵌入特定的应用或服务,面向终端用户提供服务;终端用户输入数据会反哺模型,推动模型进化与发展,甚至推动模型“黑化”。在这一过程中,算法推荐服务提供者、深度合成服务提供者以及终端内容生产者的责任界定需要更明确的规则。

也就是说,现有算法治理机制主要是基于算法作为工具、产品/服务的属性而设计,更适配弱人工智能监管需求,随着算法智能化、类人化特性的不断涌现,监管滞后性、实效性等问题会越发突出。

此外,算法主体责任+场景化监管的模式可能会无法满足AIGC监管需求——预训练大模型已经成为人工智能基础设施的情况下,预训练大模型依托其研发的插件系统可深度集成与各项应用程序,催生新业务场景、新业态。AIGC+模式下,分行业、分场景的监管模式可能会效率低下。

明天结合大模型技术特征具体看一下算法治理问题。

参考:

智东西公众号,2023年6月8日发表的《2023安博会五大看点:大模型应用扎推、AI摄像头满场,海思低调参展》

https://marketplace.huaweicloud.com/markets/holosensstore/index.html

IDC《2022中国大模型发展白皮书》(由百度支持)

哈尔滨工业大学自然语言处理研究所2023年3月6日发布的《ChatGPT调研报告(仅供内部参考)》

新华社研究院中国企业发展研究中心,2023年6月发布的《人工智能大模型体验报告》

微软研究院2023年3月发布的《人工通用智能的星星之火:GPT-4的早期实验》

艾瑞咨询2023年4月发布的《ChatGPT浪潮下,看中国大语言模型产业发展》

热门课程推荐

热门资讯

请绑定手机号

x

同学您好!

您已成功报名0元试学活动,老师会在第一时间与您取得联系,请保持电话畅通!
确定