划重点:
- 1在AWS平台上,Meta的大语言模型Llama面临着来自竞争对手的激烈竞争,其市场表现暂时落于下风。
- 2Meta依赖于云服务提供商作为桥梁,向企业推广其开源AI模型,以期拓展更广泛的应用场景。
- 3Meta目前正与Snowflake接触,就潜在的合作机会展开谈判。
腾讯科技讯 8月22日消息,据国外媒体报道,在人工智能领域,马克·扎克伯格(Mark Zuckerberg)有着勃勃雄心,希望将Meta打造成该领域的领导者。然而,Meta目前面临一项挑战,即如何向大企业推销其大语言模型,并将Llama 3塑造为新的行业标杆。
Meta知道如何在Facebook和Instagram上为Away和Temu等品牌投放广告。然而,若想让Meta成为人工智能领域的领导者,它必须迅速掌握一项新技能,即如何向大企业推销自己的大语言模型。
扎克伯格希望将Llama 3塑造成人工智能行业的新标杆。最初,他主要依赖其他科技公司来处理软件销售的问题,迄今为止,结果好坏参半。
在亚马逊AWS上,Meta获得的关注较小。AWS是全球最大的云服务提供商,提供各种大语言模型。据知情人士透露,Anthropic的Claude是AWS上最受欢迎的人工智能模型。同时,微软通常只向已有数据专业知识的客户推销Llama,比如那些拥有内部工程师和数据科学家的公司。
兰博基尼 vs 丰田
这些因素正对Meta构成压力,促使其重新审视并加强其企业销售和营销策略,以直接面向企业推广其创新产品,特别是大语言模型Llama 3。历史上,Meta对此类直接销售模式持保守态度,但鉴于当前形势,构建专属的企业销售和营销团队已成为势在必行。
值得注意的是,Meta近期已与AWS、谷歌云、微软Azure等业界巨头携手,共同推出了Llama 3.1,这一举措彰显了其合作与开放的姿态。尽管如此,Meta仍需寻找新途径,以更有效地将产品价值传递给更广泛的企业客户群。
业界观察家对Meta的未来持乐观态度。Cast AI的劳伦特·吉尔(Laurent Gil)比喻道:“当前,人工智能领域的‘兰博基尼’非OpenAI莫属,它吸引了所有人的目光。然而,Llama 3正致力于打造‘丰田’,这是更普及且实用的选择。事实上,丰田的数量远超兰博基尼。” Cast AI是一家帮助企业削减云成本的公司。
吉尔还表示,众多企业在面对各种各样的人工智能模型时感到迷茫,并陷入了围绕OpenAI的“炒作”中。他坚信Meta将脱颖而出,因为随着企业逐渐意识到Llama作为低成本、高质量且专有性强的模型替代品优势,其市场需求将日益增长。
Meta正在研究如何让更多的企业使用Llama。据知情人士透露,最近几周,Meta高层正与Snowflake紧密磋商,旨在扩大合作范围,让Snowflake的客户能在其平台上利用自有数据训练定制化的Llama模型。
尽管在由Lmsys与加州大学合作的人工智能模型评估项目Chatbot Arena中,Llama的表现暂居下风,落后于OpenAI、谷歌及Anthropic等强手,但这并未阻挡部分企业对其的接纳与采纳。据悉,高盛已计划投入100万美元,在微软Azure平台上部署Llama以支持自动编码工作;同时,亚马逊也宣布,日本野村银行和外包公司TaskUs正通过AWS运用Llama技术。
企业人工智能领域的资深顾问文·瓦施什塔(Vin Vashishta)评价道:“Meta正引领企业步入自建大语言模型的新纪元。”
Llama将成为新标准?
Meta正在花费数百亿美元购买新的人工智能芯片,以强化其人工智能驱动的计算能力,然而,这种努力究竟将如何产生回报尚不清楚。
值得注意的是,Meta并未计划直接面向消费者或企业收取其大模型的访问费用,而是选择了开源软件的形式发布其模型,这与OpenAI、谷歌等公司的商业模式形成鲜明对比。不过,扎克伯格曾提及,Meta可能通过云计算公司的Llama销售收入实现间接盈利。
扎克伯格还展望了人工智能对Meta广告业务的潜在提振,并强调了若Llama能确立行业标准地位,将有效削弱竞争对手的攻势。
在策略层面,扎克伯格将Meta的开源举措与Linux操作系统的成功相提并论,旨在推动Llama成为云计算和新兴技术领域的标准。为加速Llama在其他公司平台上的部署与应用,扎克伯格需巧妙穿梭于科技行业的复杂生态中,灵活应对与竞争对手的合作与竞争关系。
例如,谷歌云计算部门虽提供Llama服务,但在数字广告领域与Meta构成竞争。微软Azure亦如此,尽管其也提供Llama,但还与OpenAI合作,后者的大语言模型是Llama的直接竞品。然而,亚马逊与Meta的关系则更为紧密,不仅是Meta的重要广告客户,还合作实现了在社交媒体上直接购买亚马逊产品的功能。
作为AWS的长期客户,Meta近年来持续加大在该平台的投入,近期更传出双方就扩大合作、年支出或超10亿美元的谈判,旨在巩固Meta作为AWS主要客户之一的地位。同时,Meta正就GPU使用折扣问题与AWS进行协商,以优化其大语言模型的训练成本。数据显示,Meta目前在AWS和Azure云服务上的支出在2.5亿到5亿美元之间。
今年初,扎克伯格公开透露Meta已订购35万颗Nvidia H100芯片,并将在今年年底前交付。他还强调,Meta正积极构建基础设施以支撑其雄心勃勃的人工智能战略。
Meta和AWS早有合作
Meta和AWS已经合作销售一款企业产品。大约在2019年,两家公司合作销售PyTorch,这一开源软件库由Meta专为构建人工智能应用而设计。三名前Meta员工表示,在短短几年时间里,PyTorch迅速崛起,成为研究导向市场中的佼佼者,与谷歌TensorFlow等竞品并驾齐驱。
然而,Meta与AWS的合作历程亦非总是一帆风顺。据前Meta员工透露,在PyTorch开发和推广期间,Meta方面对AWS的销售执行效率表达了不满,认为AWS将PyTorch推向企业客户的速度过于缓慢。
AWS通过Bedrock平台向客户提供多样化的大语言模型选择,包括Meta的Llama、AWS自研的Titan,以及Anthropic和Cohere的模型等,旨在满足不同用例需求。
亚马逊发言人强调,提供多样化的基础模型选择对于满足各种应用场景至关重要。而Meta发言人则表达了对双方合作的满意态度,但未就Llama 3.1的具体使用率置评。
本文来自“腾讯科技”,作者:金鹿,36氪经授权发布。