共计 3471 个字符,预计需要花费 9 分钟才能阅读完成。
Meta 大力投资开源的根本原因,当然是希望确保其可以获得领先的模型。
但扎克伯格称,在 Llama-3.1 之前,他本能地认为,如果 Llama 开源,就会有一个社区自发地围绕它成长。或许是考虑到模型的部署不同于其他开源项目,还需要很多动手操作的环节、也需要很多资源支持,扎克伯格决定在扩展生态系统上更积极。
「我相信 Llama 3.1 版本将成为行业的一个转折点,大多数开发人员开始主要使用开源,并且我预计这种方法只会从这里开始发展。」
OpenAI 的愿景是构建一个大 AI,Anthropic 和谷歌也有类似的愿景。但 Meta 的愿景是有很多不同的模型。每个创业公司、每个企业、每个政府都希望拥有自己的定制模型。而当闭源生态系统比开源系统好得多时,使用现成的闭源模型是更好的选择,但现在不同了。
现在,开源基本上弥合了这一差距,人们现在有动力去定制和构建并训练适合他们需求的模型,将他们的数据训练到模型中。
谁能用上 Llama 3.1?
官方报告指出,Llama 3.1 使用了超过 1.6 万个英伟达 H100 GPU 训练而来,The Verge 根据其所用英伟达芯片的成本估计,其训练成本为数亿美元。
能省去这么一大笔钱,还有一个最强的基座模型,这是对开源最强模型的本能期待。但把模型落地到场景里,还有一个迫在眉睫的现实问题——到底有多少开发者有能力把 4050 亿参数的密集模型用起来。
深度学习框架 PyTorch 的联合创始人、Facebook AI Research (FAIR) 的研究员 Soumith Chintala 发推称 Meta 调度 1.6 万 H100 GPU 算力集群的有效训练时间达到 90%。|图片来源:X.com
Llama3 论文中,有很长的篇幅在讲基础设施,1.6 万张 H100 集群在训练过程中会如何失败,包括如何并行化、保持集群可靠等。对此,英伟达高级科学家 Jim Fan 转发点评,「基础设施工作是人工智能领域最被低估的工作,我能从这张表中的数字感受到内脏的疼痛和折磨」。
就运行 Llama 的开源模型而言,The Information 此前报道,应用程序开发者已经能够使用一组八个连接的 AI 服务器芯片(称为节点)来运行开源模型。Llama 3 的较小版本可以正常运行,但较大的模型可能无法适应单个节点,而是需要多个节点。
帮助开发人员运行开源模型的推理提供商表示,这会带来很多复杂性。为大模型提供支持的节点必须能够协同工作,或者相互「交谈」,而这并不容易设置。在某些情况下,这意味着节点在物理上必须彼此靠近。
通常,对于较小的模型,推理提供商可以使用相同的节点来处理不同客户的请求,只要他们使用相同的 LLM。然而,对于较大的模型变得更加困难,因为它们需要同时协调多个节点(多节点推理)。
有推理供应商称,可能需要几周甚至几个月的时间来重新设计他们的系统,以便能够处理来自 Meta 的 4050 亿个参数模型。在一日千里的大模型领域,这是很多时间。
同时,这些多节点配置也会提高运行模型的成本,尽管模型是免费提供的,但运行成本有时已经高于闭源模型。
Meta 当然意识到这个问题,与最大开源模型一同推出的,还有生态伙伴的合作方案,可以帮助任何开发者部署 Llama3.1 和各种工程化调优任务。但它仍然可能成为开发者使用 Llama3「超大杯」的一个挑战。
扎克伯格:乐于看到人们拿 Llama3.1 蒸馏小模型
在 Meta 看来,Llama 开源「除了相对于闭源模型具有明显更好的性价比之外,405B 模型的开放性这一事实将使其成为微调和蒸馏较小模型的最佳选择」。
此前,OpenAI 发现字节跳动通过大量与 GPT-4 对话、蒸馏其高质量数据后,第一时间封号、禁止了这种做法。现在,Meta 却主动提出让大家蒸馏。更值得玩味的是,开源一个最强模型后的使用场景不是免费拿它去做 AI 应用,而是蒸馏自己的小模型。
ChatGPT 发布一年半以来,真实的市场需求下,很多企业并不会大规模使用大模型 API,而是基于开源模型做微调、从最强模型中蒸馏出企业自己可用的小模型,因为用户和企业都非常关心他们的私人数据,以及关键模型的「自主可控」。
其中,微调(Fine-tuning)指的是利用已有的预训练模型,在新的数据集上继续训练,对模型的参数进行少量的调整和优化,以使其适应特定的任务或领域。
蒸馏(Distillation)则是一种将大型复杂模型的知识压缩并传递给较小、较简单模型的技术。能在保持一定性能的前提下,降低模型的计算量和参数规模,提高模型的部署效率和运行速度。
扎克伯格接受 AI 博主采访时谈到对 Llama3「超大杯」的使用场景期待|截图来源:X.com@rowancheung
扎克伯格在一档采访节目中重申了这一点,「我最感兴趣的是看到人们用它来蒸馏和微调自己的模型。我非常期待看到人们如何使用它,特别是现在我们制定了社区政策,允许人们将其用作教师模型来进行蒸馏和微调,基本上可以创建他们想要的任何其他模型」。
他认为,人们会希望直接在 4050 亿参数的模型上进行推理,因为据 Meta 估计,这样做的成本将比 GPT-4 低 50% 左右。人们可以将模型蒸馏到任何他们想要的大小,用于合成数据生成,作为教师模型使用。
「Meta AI 将超过 ChatGPT」
在大模型上,拥有最多 Super App 的 Meta,必须确保始终能够获得最好的 AI 技术。为了实现这一目标,开源是 Meta 的手段之一,策略则是建立一个强大的、开放的 AI 生态系统。
但这也带来一个质疑,Meta 没有像亚马逊、谷歌和微软那样拥有能够利用大模型推动业务的云计算,这就意味着 Meta 将其如此巨大的投入转化为收入的能力更加有限。
扎克伯格反而将这一质疑视为优势,他称,「出售大模型的访问权限不是我们的商业模式。这意味着公开发布 Llama 不会像闭源模型厂商那样削弱收入、可持续性或研究、投资能力。」
Meta 的 AI 商业化,目前仍是改进其广告业务、使其新的 AI 助手(Meta AI)成为杀手级 AI 用例。
Llama 3.1 现在为 Meta AI 提供支持,Meta AI 是 Meta 应用程序和雷朋智能眼镜中提供的 AI 助手,它被定位为像 ChatGPT 这样的通用聊天机器人,几乎可以在 Instagram、Facebook 和 WhatsApp 的任何地方找到。
可选 Llama 3.1 支持 Meta AI|图片来源:Meta 官网
从本周开始,Llama 3.1 将首先通过美国的 WhatsApp 和 Meta AI 网站访问,随后在接下来的几周内通过 Instagram 和 Facebook 访问。它正在更新以支持新语言,包括法语、德语、印地语、意大利语和西班牙语。
伴随 Llama 3.1 的发布,Meta AI 添加了一项新的「想象我」功能,可以根据用户的特定肖像生成图像的功能。通过以这种方式而不是通过个人资料中的照片捕捉用户肖像,Meta 有望避免创建深度伪造(Deepfake)机器。
Meta AI 也将在未来几周内出现在 Quest 耳机中,取代其语音命令界面。就像它在 Meta Ray-Ban 眼镜中的实现一样,用户能够在 Quest 上使用 Meta AI 来识别和了解耳机直通模式下正在查看的内容,该模式通过显示屏显示现实世界。
扎克伯格在 Instagram 上发帖称,数亿人已经使用了 Meta AI。他预测,到今年年底,Meta AI 将超过 ChatGPT(ChatGPT 拥有超过 1 亿用户),成为使用最广泛被使用的 AI 助手。
对于未来的 AI 应用图景,扎克伯格称,Meta 的愿景是,应该有许多不同的 AI 及其 AI 服务,而不仅仅是单一的 AI,这一看法也影响了 Meta 的开源方法和产品路线图。
「我们的重点是让每个创作者和每个小企业都能创建自己的 AI Agent,使每个人都能在我们的平台上创建他们想要的 AI Agent,这些都是巨大的市场。世界上有数亿的小企业,一个企业可以通过几次点击就能创建一个 AI Agent 来进行客户支持、销售,并与所有客户沟通。未来每个企业都会像现在有电子邮件地址、网站和社交媒体一样,拥有一个他们的客户可以交流的 AI Agent。我们将生活在一个拥有数亿甚至数十亿不同 AI Agent 的世界里,可能最终 AI Agent 的数量会超过世界上的人口,人们将以各种不同的方式与它们互动。这是产品愿景的一部分,其中有很多商业机会,这是我们希望赚钱的地方。」
最后,他还剧透,Llama-4 已经在路上了,甚至不止 Llama4。「规划计算集群和数据轨迹不仅仅是针对 Llama-4,而是未来四五个版本的 Llama,这确实是件有趣的事情,因为这些都是需要长期投资的事情,建设数据中心、配套的电力、芯片架构和网络架构等」。