对话红帽曹衡康:开源模型主导AI未来

内容摘要21世纪经济报道记者孔海丽 北京报道2025年,全球AI产业迎来分水岭。DeepSeek开源大模型迅速成为行业焦点。OpenAI创始人山姆·奥特曼(Sam Altman)也罕见承认其“闭源路线站在了历史错误的一边”,并于近期宣布在接下来的几

21世纪经济报道记者孔海丽 北京报道

2025年,全球AI产业迎来分水岭。

DeepSeek开源大模型迅速成为行业焦点。OpenAI创始人山姆·奥特曼(Sam Altman)也罕见承认其“闭源路线站在了历史错误的一边”,并于近期宣布在接下来的几个月里将发布自GPT-2以来的第一个开源模型;国内原本走闭源路线的互联网企业也转向开源生态。

一系列事件标志着开源AI路线取得阶段性胜利,开源的成本、透明度与灵活性等优势,正在重塑大模型竞争格局。

作为全球范围内开源路线的代表之一,红帽“以开源推动效率革命”的理念其实更早,当下,DeepSeek的爆火,加强了公众对于开源路线的认知。

近日,红帽全球副总裁兼大中华区总裁曹衡康在接受21世纪经济报道记者采访时表示,红帽将DeepSeek视为“生态伙伴”:“他们的模型可以无缝运行在红帽平台上。”这种互补合作催生了新的商业模式——企业可在红帽的OpenShift AI平台上同时部署DeepSeek、Llama等开源模型,根据业务需求动态分配算力。

尽管AI非常火热,但很多企业依然处于探索和测试阶段。

红帽数据显示,94%的企业正在进行生成式AI试点,预计未来3到5年才能真正实现AI投资的回报。“AI部署的挑战不只是技术本身,更重要的是如何把AI应用到实际生产环境中,尤其是在企业的核心应用上。”曹衡康说。

曹衡康透露,在红帽看来,企业级AI应用更恰当的路径是开源、混合式和专有小模型。

截至目前,开源的价值更明显。原因在于,现阶段的AI仍然需要大量尝试,如果一千个人在一千个方向上探索,速度就会比一家公司单独摸索要快得多。

在传统软件开发中,需求和实现路径往往较为明确,用闭源也没什么不妥;可是在AI领域里还有很多未知,开源能够极大加快创新进程。闭源意味着只有少数人能尝试,效率相对低很多。通过开源,全球的开发者可以共同参与到AI的创新与改进中。

“混合式AI”意味着AI不会局限于云端,企业内部的计算资源同样可以用于AI模型的开发和应用。

闭源模型通常绑定特定云服务商,导致企业存在“被技术绑架”的风险。混合云策略允许AI模型在本地数据中心、公有云或边缘设备间自由迁移。

此外,不同于通用AI,行业专用的生成式AI模型要求根据具体业务需求定制。曹衡康举例说,医疗行业、汽车行业和零售行业都需要专门针对各自行业特点的AI模型,而不是通用的大模型。

通用大模型并不总是最适合企业资源。企业需要的不是“万能模型”,而是贴合业务的专有模型。

“我们相信,AI的应用应当能够跨越不同平台,从企业的数据中心到边缘计算,甚至个人设备,都能灵活部署和运用。”曹衡康表示,开源、混合式和小模型原则,可以帮助企业以更低的成本开发高效的AI模型,减少对GPU等高性能硬件的依赖,并降低运营成本。

曹衡康也提到了企业AI部署的三个挑战:成本、复杂度和灵活性。

闭源大模型的训练和部署需要天量算力,企业往往因硬件投入和云服务费用不堪重负。曹衡康指出,“小模型”策略通过模型蒸馏(Distillation)和私有数据调优,可将参数规模缩减至原模型的千分之一,硬件成本明显降低。并且,通用大模型为追求广泛适用性,往往保留冗余功能,导致输出不可控,“专有小模型”策略则聚焦垂直场景,调用算力更少,效率更高。

多数企业缺乏AI专业人才,难以驾驭复杂的模型开发和数据清洗流程。红帽通过RHEL AI、OpenShift AI等一体化平台,将模型训练、调优和部署集成到标准化工具中。例如,InstructLab允许企业用私有数据生成合成训练集,将数据需求量降至原来的千分之一,同时支持自动化模型“瘦身”。

最后,灵活性至关重要,企业需要能够根据自身需求,在不同平台、不同硬件上灵活部署AI模型。

大模型的“幻觉问题”也是闭源路线的硬伤。由于模型参数和训练数据不透明,企业难以追溯错误根源。而开源AI通过透明化调优与社区监督,可以有效降低模型幻觉率。开源模型的代码、参数和训练数据完全公开,企业可根据自身需求调整模型逻辑。

开源AI的胜利并非偶然,而是AI规模化落地的优势路径。在这场变革中,那些以开放生态赋能企业的平台,不追求垄断模型,而是构建自由、透明、经济的AI未来。

 
举报 收藏 打赏 评论 0
24小时热闻
今日推荐
浙ICP备2021030705号-4