- A+
有人说大模型真火,有人说大模型虚火,大模型到底怎么样,它的发展路径、应用场景、核心机缘在什么地方?中国IDC 副总裁钟振山带来他的演讲。
本文引用地址:
从3 个角度去看,①整体市场进展,②应用层面的五大趋势,③下一代AI 推理基础设施市场。
1 国内市场的大模型进展
最近,无论是OpenAI 的GPT-4o 还是谷歌I/O 开发者大会上发布的Gemini 1.5 Pro 新一代大模型产品,预示着整体市场对于大模型这项基础的关注度非常高,并不是可能我们最近听到一些声音说,大模型在不断的降温等。实际上去看2B 市场,IDC 也做了一组调研,探讨了对于企业级的用户,大模型的作用到底在哪儿。第一组数据是去看,在投资了生成式AI 或者大模型技术的时候,投资者是否看到了相关的投资回报?从这组数据里看到,约接近30% 左右受访者表示,在投资生成式AI 技术之后不到1 年的时间里已经看到了回报。如果把时间拉长到约18~24 个月/2 年的时间,这个数据其实会增长到接近80% 左右。所以,对于企业IT 项目来讲,这种投资回报率从时间上看是相对比较优质的项目。如果回到以前做IT 管理岗位时候,当时我们的企业内部在衡量一个IT 项目,大约时间是3~ 5 年左右。所以对于生成式AI 来讲,它的投资回报率相对比较高。
究竟是一个什么样的投资回报率?通过IDC 的调研得出一个结论,每花费1 美元左右的投入,平均可以得到3.5 倍左右的投资回报率。
但是如果分成各种不同的应用场景,看到在企业级市场中主要的应用场景还是集中在例如像自动化的IT服务,包括自动化流程管理和工作流等相关的通用型场景,其他的,例如像产品与服务的创新,包括分析与预测,以及安全方面的应用场景也有一定的比例。
另外,对于AI 市场来讲,比较特殊的是开源和闭源共存的状态。实际上,现在如果去看其他的IT 系统,绝大部分的企业会采纳商业化的产品,因为有很多的技术支持可以和厂商一起合作,以解决业务上所遇到的问题,但是AI 的起源更多来自于开源市场,所以在企业级市场中去看,约51% 的企业会采用开源或开源模型,49% 使用商业化模型(闭源)。实际上,开源和闭源各有利弊,开源模型可能给企业带来更多灵活性。商业化模型更多有一套相对完整的工具链,很多国内外大模型厂商在提供底层模型的同时,也会提供一些例如应用程序的builder,使企业能快速地把大模型技术用到企业的业务场景中。
因此,使用开源还是闭源模型各有利弊。大模型技术现在还处在早期,还在探索的过程中。大模型的普及和火热也带动了一系列周边技术发展,可以看到数据仓库作为生成式AI 数据平台也发挥主导作用。IDC 询问过很多企业一个问题:您在使用什么样的数据平台来支撑生成式AI ?可以看到约一半的企业会使用数据仓库,例如向量数据库、数据湖,包括具备向量搜索能力的NoSQL 数据库也有一定的比例。
因此,企业在使用大模型技术时所采用的后台数据平台技术也是呈多样化的。
大模型给企业带来的机会不仅是大模型本身,更多地会进一步推动整体IT 市场的发展。
从部署方式来看,也看到非常多样的局面,可分成:本地部署、公有云、私有云、数据中心等部署方式。实际上,这取决于哪一部分的算力。例如在模型训练层面,更多的企业会采取本地部署的方式,第二部分,可能更多的是公有云、私有云相结合。但是无论在模型的微调共享的方式。所以在谈大模型的时候,无论是在应用层也好,还是在基础设施的层面,不会是统一的标准,是非常多样化的市场。在应用层可能更多的用户会去看推理和模型微调这方面的市场。
2 大模型应用的五大趋势
第一,“卷”向产业。2023 年中国很多大模型厂商或者AI 厂商主要投入方向在于建设和训练基础模型,过去国内很多人听说过“百模大战”以及很多基础模型涌现,但是今年已有明显变化,人们都在讨论如何让大模型落地,随之而来出现了很多行业和场景相关的大模型。这说明人们逐渐意识到,自己在投入大量资源之后,需要让大模型能够产生一定的价值,才能真正发挥出它的作用。所以今年不仅是行业模型的出现,还有很多新的应用场景的出现,很多企业也在和技术供应方一起不断探索,无论通用应用场景还是行业专属的应用场景。
第二,开源和闭源并存。纵观整体IT 市场,大模型还是处在相对比较早期的阶段,是一个相对比较开放的态度,无论是开源还是闭源,企业都希望能够去探索最适合自身特点的应用场景。也可以看到,以前我们在讨论AI 开源市场时更多是从框架角度,但是现在随着大模型逐步火热,讨论开源时更多的是讨论开源大模型,而底层框架更多是支撑大模型底座技术的积累。所以无论是厂商还是用户,关注点已经逐步地从框架层面转到大模型层面,如何把大模型技术落地到企业中。
第三,大模型在向端侧转移,AI 推理也引起广泛关注。无论OpenAI 还是谷歌,除了发布大模型以外,另外一个重要的关注点,就是他们的相关APP 的出现。现在看到的趋势是,大模型如果想要普及,最关键的一点是需要有更多的人把它用起来。例如OpenAI开放了很多以前收费的功能,也是希望能够有更多的用户,这样它才能够逐步地去探索更多的应用场景。
在国内,我们也看到很多手机厂商推出了自身的大模型。其实在他们的手机端侧也可以支持大模型的使用,为大模型进一步普及做了足够的铺垫。
第四,多模态发展。这是OpenAI 和谷歌发布会最大的亮点之一。可以看到,传统大模型主要针对对话式的聊天机器人,包括图像的理解、文生图等,但是现在整体的市场趋势是,这些不同功能会融合到一个统一的大模型里。从实际落地的案例来看,例如国内某家公司通过训练相关模型,初步实现文字生成剧本到漫画、动态视频的整体业务模式。这种多模态的大模型的出现也会进一步推动大模型技术的普及,可能会出现杀手级的应用。
第五,新一代AI 设施会成为下一个战场。在过去一两年中,很多科技厂商在大规模投入基础设施方面的算力,但是更多的算力主要集中在训练层面。不过,对于一家企业,这种大规模是不现实的——需要足够多的算力才能把大模型技术真正用起来,这可能会涉及对于一家企业来讲新的IT 基础架构,包括怎样支持更多的分布式业务模式、多云的集成、高性能的计算,以及如何更深入地和合作伙伴一起去打造最适合企业自身的新型基础架构。
3 从训练到推理:下一代AI推理基础设施
新一代的AI 设施到底是什么? IDC 对于下一代基础架构有一个最新的框架,主要是围绕数字化基础设施能力中心,为企业提供可信、高弹性、可持续和更加安全的整体基础设施。对于企业的意义,主要是具备了四个方面,① AI 就绪,②自主操作,③混合和多云的环境,④边缘优化。
1)边缘优化。为什么把“边缘优化”单独拉出来看?实际上,很多企业的业务更多的是朝向分布式的方式去发展,如何更好地去支撑这种分布式业务整体发展?需要考虑原生边缘部署的概念。这个概念涉及的,例如容器的管理,包括安全性(零信任的安全),环境整体的综合性考虑,整体的连接技术,……可能都会对企业IT部门带来新的话题。
2)混合和多云。从全球AI 基础设施的规模来看,在训练层面,未来几年更多的基础设施的投入还是集中在云端。但是如果把推理市场单独拉出来,其实大部分的算力还是集中在云端的,但是边缘和本地的推理算力比例比在训练层面相对高一点。所以未来有理由相信:随着大模型技术不断的发展,整体的基础设施的市场也有可能非常明显地会分为两个不同的市场:①在训练方面,更多是在云端去进行大规模的训练,②在推理方面,可能更多满足不同业务的场景。
3)面向AI 的基础架构基石。IDC 总结出几条,无论是在适用于特定用途的高级处理器和加速器方面,还是下一代存储、超融合系统、高性能生成式AI 网络架构,还是机密计算,可持续的数据中心技术,甚至量子计算,可能未来都会成为面向AI 的基础设施的基石。
生成式AI 整体的支出还是非常乐观的市场。无论在全球还是在中国,这个市场都会呈高速发展的状态。但是从投资热点来看,初期在基础设施方面;现阶段逐步转向平台和方案;在未来的几年,可能是AI 的服务。从应用场景角度来看,现在看到的很多应用场景还是通用型的应用场景,无论是知识管理,还是市场营销,包括客服,代码生成,数字员工,艺术设计等。但是很多企业在和技术供应商一起探索更多的可以影响核心业务的场景,未来可能会看到有更多的行业应用场景出现,从而进一步推动整体生成式AI 和大模型的推广。