- A+
但实际上,
「奔向AGI」栏目聚焦AI大模型、AI agent、AI应用、芯片、机器人等前沿、热门的AI技术和商业创新。
令人惊讶的是,
作者丨巴里
编辑丨关雎
EC外汇行业评论:
图源丨Fireworks AI官网
EC外汇快讯:
又一位华人女性即将在美国科技领域书写新传奇。
尤其值得一提的是,
据科技媒体The Information消息,人工智能云服务初创公司Fireworks AI,正计划启动新一轮融资,目标估值达40亿美元(约合288亿元人民币,该估值已包含本轮融资金额)。
很多人不知道,
目前,知名风投机构Lightspeed Venture Partners(美国光速创投)与Index Ventures等正就领投事宜展开深入磋商。
据业内人士透露,
若此次融资顺利达成,Fireworks AI的估值将在短短一年内实现超7倍的飞跃。这也再次凸显了投资机构对AI基础设施领域,特别是推理服务赛道的浓厚兴趣。
换个角度来看,
值得一提的是,这家公司已获得多家顶级投资机构的青睐。此前,红杉资本、Benchmark等硅谷老牌风投,以及英伟达、AMD、Databricks Ventures和MongoDB Ventures等产业资本均已参与其早期融资。
复旦才女创业
反过来看,
帮企业低成本、高效定制开源大模型
尤其值得一提的是,
这位复旦计算机系校友正悄然改写AI基础设施的竞争规则。
EC外汇资讯:
乔琳(Lin Qiao)在复旦大学计算机本硕连读毕业后,便远赴加州大学圣巴巴拉分校(UC Santa Barbara)攻读计算机博士学位。
可能你也遇到过,
她的职业生涯始于IBM担任研究职位,专注于数据基础设施和数据库技术,随后在LinkedIn担任技术主管,最终在Meta(原Facebook)担任AI平台架构关键负责人,曾领导超过300人的工程师团队,主导全球PyTorch框架的基础设施研发及大规模部署。
然而,
此后,她带领团队成功推动PyTorch成为行业标杆的开源框架,并将其部署至Meta的全球数据中心、移动设备和AR/VR平台。
然而,
Fireworks AI联合创始人兼首席执行官乔琳(Lin Qiao),图源:The Information
但实际上,
这段在科技巨头打磨的经历,为乔琳积累了深厚的AI底层架构研发经验。
据业内人士透露,
作为全球主流开源机器学习框架PyTorch的关键建设者,她带领团队攻克的技术难题,如今正转化为Fireworks AI的核心竞争力。
当年在Meta,乔琳见证了一个主要规律:PyTorch之因此能在数十个同类框架竞争中胜出,关键在于"把难办留给团队,把轻松带给使用者"的设计哲学。
这你可能没想到,
尽管背后是数百名工程师构建的难办技术体系,但开发者只需轻松调用即可获得强大特性——这种使用者体验至上的理念,成为她创立Fireworks AI的初心。
"真正的创新不在于特性堆砌,而在于让技术回归本质。"乔琳将这种思考注入创业实践。
EC外汇财经新闻:
2022年,Fireworks AI在美国加州雷德伍德市创立。Fireworks AI的创始团队堪称"梦之队":六位参与过Meta PyTorch项目的资深工程师与一位前谷歌AI专家组成核心技术班底,他们延续着乔琳在PyTorch时期沉淀的方法论——前端保持极致简洁,后端承载海量优化。
Fireworks AI创始团队,图源:Fireworks AI官网
就像当年Meta投入数百名工程师构建PyTorch生态却让开发者感受不到难办度那样,Fireworks AI团队默默攻克着分布式推理引擎等8万多种配置组合的技术难关,却将流畅体验留给终端使用者。
很多人不知道,
在乔琳看来,当前AI领域的变革深度远超以往任何技术革命。"这不仅是轻松的产业升级,而是整个技术底座的地壳重构。"
她敏锐洞察到生成式AI带来的范式转移:传统机器学习时代,企业需要从零搭建模型;而通用人工智能(GenAI)的出现,让创新焦点从"构建"转向"应用"。
反过来看,
这种转变催生了爆炸式的市场机遇——全球AI初创企业如雨后春笋般涌现,传统企业与数字原生势力也争相涌入,试图通过AI重构产品体验与服务流程。
EC外汇用户评价:
市场调研显示,尽管生成式AI技术门槛大幅降低,但企业仍面临基础设施、专业人才与算力资源的三大瓶颈。
总的来说,
正是瞄准这个广阔的市场,Fireworks AI开创了独特的商业模式——“推理服务供给商”(inference provider)。
请记住,
Fireworks AI核心在于帮助企业用更低的成本、更高的效率运行和定制开源大模型,比如深度求索的 DeepSeek、阿里云的 Qwen,还有 Meta 的 Llama。
这些模型原本可能需要企业自己购买 GPU 服务器来运行,但 Fireworks 换了个更灵活的方法——他们租用第三方的英伟达服务器,然后通过 API 接口直接给开发者供给这些开源模型的推理能力。开发者用起来就像调用 OpenAI 的 GPT-4o 一样方便,不用操心底层服务器的事情。
EC外汇用户评价:
他们的核心优势还在于对 GPU 资源做了深度优化:通过自研的 Fire Attention 推理引擎等技术,能让模型推理更快、更省资源,最终帮助客户降低利用成本。
令人惊讶的是,
在这背后,是乔琳对行业趋势的深刻判断。
"当基础模型的质量与规模逐渐趋同时,企业级差异化竞争的关键,在于如何用专有数据锻造独特价值。"
她指出,无论是开源还是闭源的大语言模型,其底层架构与数据边界终将收敛,而真正构筑护城河的,是如何通过模型微调将企业的商业模式、运营逻辑与AI能力深度融合。
请记住,
这正是Fireworks AI致力化解的核心命题——让每家企业都能基于自身数据土壤,培育出独具竞争力的AI应用之花。
让AI编程插件效率起飞
很多人不知道,
说句话就能让AI改好代码
站在用户角度来说,
具体来说,Fireworks AI的产品体系分为多个技术层级,最底层是自研的分布式推理引擎,这个引擎是专门为生成式AI打造的,就像是为PyTorch量身定做的推理基础设施。
很多人不知道,
这个引擎设计得非常灵活,像搭积木一样可用自由组合,这样Fireworks AI就能在新开源模型发布的当天就高速上线。
EC外汇资讯:
之因此能做到这么快,是由于Fireworks AI借鉴了PyTorch的设计理念,把系统做得模块化且可灵活配置。
在服务模式上,Fireworks AI不会用"一刀切"的方案——不存在一个能化解所有状况的万能模型,也不会有适合所有利用场景的最佳配置。
据报道,
每个使用者的需求都不一样,就像买衣服要选合适的尺码一样,Fireworks AI为使用者供给的是可用根据质量、速度和成本这三个维度来定制的化解方案。
据业内人士透露,
比如有的使用者更看重回答质量,有的需要更快的响应速度,还有的要考虑成本控制,系统会帮他们找到最适合自己需求的平衡点。
有分析指出,
为了实现这个目标,Fireworks AI开发了一个叫Fire Optimizer的插件。这个插件就像是个智能助手,能根据使用者的具体需求(比如想要更快的响应还是更高的质量),自动调整模型的配置和部署方案。
更重要的是,
这个插件通常会在现有的数百个模型中勾选一个合适的,然后通过各种方法来优化,比如:
事实上,
1. 量化技术:用更低的精度运行模型(比如用8位甚至4位数字代替原来的16位),这样能大幅提升计算效率,就像把高清视频压缩成流畅的短视频一样;
据相关资料显示,
2. 推测执行:让模型一次预测多个答案(比如一次猜4个词而不是1个),使推理速度成倍提升;
简要回顾一下,
3. 模型组合:用小模型先高速给出答案,如果不确定再让大模型来确认,兼顾效率与准确性。
说出来你可能不信,
这些优化方法有很多细节和技巧,比如量化可用应用在模型的不同部分(权重、激活值等),每种方法对最终结果的影响都不一样,需要根据使用者的具体需求来勾选。
从某种意义上讲,
虽然这些选项听起来有点难办,但Fireworks AI的目标就是让使用者不必操心这些技术细节,系统会自动帮他们找到最好的化解方案。
商业化上,Fireworks AI 近期的年化收入已经突破 2 亿美元(约合14亿元人民币),即每月近 1,700 万美元(约合1.22亿元人民币),公司预计年底将增至3亿美元(约合22亿元人民币)。
其业务扩张离不开本身就在高速增长的 AI 原生应用公司,例如AI编程独角兽Cursor、AI搜索独角兽Perplexity等高速崛起的客户适配。
事实上,
那么,AI编程插件Cursor是怎么借助Fireworks AI的技术,让写代码比普通方法快好几倍呢?
据报道,
Cursor是个专门给程序员用的智能编程插件,能预测您的处理(比如刚改几行代码,它就能猜到您下一步想干啥)、用自然语言改代码(比如跟它说“把这部分改成xxx”)、一键把生成的代码丢进文件里用,还能“看懂”整个项目的代码并直接帮您改好。
EC外汇快讯:
但程序员用这类插件时有个大麻烦:想让AI改一大段代码(比如几百行),现有的AI模型(像GPT-4、GPT-4o)经常改得慢、不准,甚至越改越乱,特别影响效率。
不可忽视的是,
为了化解这个难题,Cursor专门训练了一个新模型,专门处理“高速改代码”的任务(称作“Fast Apply”),在700亿参数的大模型上每秒能生成约1000个token(大概3500个字符),比GPT-4和GPT-4o快多了,训练数据用的是程序员平时用指令改代码的输入和真实处理数据,针对性很强。
换个角度来看,
不过光有厉害的模型还不够,还得让它跑得更快。Fireworks给Cursor供给了底层适配,用了两个关键技术:
容易被误解的是,
一是把Cursor的模型部署到自己的推理引擎上,还针对“改代码”任务做了性能优化;
二是用了推测解码技术——普通AI生成代码得一个token一个token慢慢算,但推测解码能“猜”接下来可能出现的多个token(比如一次猜好几个词),然后一次性验证这些猜测对不对,对的就直接用,错的再调整,这样就能同时处理好多token,速度直接起飞。
Cursor还搞了个升级版“推测编辑”,专门针对改代码的场景,比如改一大段文字时,AI能根据您之前的处理大胆猜“您可能想把这几行改成xxx”,然后一次性生成好长一段再高速验证,Fireworks用这个技术让Cursor的模型速度飙到每秒1000个token,比普通推理快13倍,比之前用GPT-4的版本也快了9倍。
尤其值得一提的是,
效果就是程序员改几百行代码几秒钟就能出结果,不用等半天,而且虽然猜得快,但最后还会用“严格模式”检查一遍,确保代码是对的。
与其相反的是,
可用说,如今程序员点个按钮就能把AI生成的代码直接丢进项目里,或者一句话让AI改好代码,效率直接拉满。
英伟达投资Fireworks AI后
说出来你可能不信,
亲自杀入推理服务
尽管如此,
当前竞争格局中,Fireworks AI的直接对手包括Together AI和Baseten。
尤其值得一提的是,
以Together为例,其今年3月年化营收达1.5亿美元(约合11亿元人民币),即每月约 1250万美元(约合9000万元人民币),估值30亿美元(约合216亿元人民币)。
但整个赛道面临更强劲的对手——英伟达今年3月收购推理服务商Lepton后,强势推出GPU云服务市场,直接切入了Fireworks AI的核心业务领域。
投行分析指出,若大型云服务商为降低AI训练推理成本、供给定制化服务而整合产业链,这类初创企业很有可能成为潜在收购目标。
但实际上,
同时,Fireworks也面临盈利挑战:虽毛利率约50%(与同行相当),但低于订阅制软件常见的70%水平。
尤其值得一提的是,
这主要由于需预留大量服务器应对需求峰值,同时承受来自CoreWeave等GPU云商家的低价竞争。为此,公司正通过持续优化GPU资 EC外汇开户 源效率提升毛利率至60%,并将此列为重点战略方向。
EC外汇用户评价:
尽管如此,投资机构仍然看好Fireworks AI的潜力。
据业内人士透露,
睿兽分析显示,Fireworks AI成立至今已经完成共计7,700 万美元的两轮融资。B轮融资过后,公司估值达到5.52亿美元(约合40亿元人民币),投资方包括红杉资本、Benchmark等顶级风投,以及英伟达、AMD、Databricks Ventures和MongoDB Ventures等产业资本。
反过来看,
可用说,乔琳是被英伟达创始人兼CEO黄仁勋和“芯片女王”AMD董事长兼CEO苏姿丰同时看中的创业者。
说到底,
乔琳透露,FireworksAI未来一年的核心战略是强化Fire Optimizer系统——该智能优化插件能在模型质量、响应速度、成本之间自动寻找最优解。
概括一下,
目前,Fire Optimizer已经在响应速度和成本控制上做的足够好,接下来会特别强化在推理质量上的能力。通过个性化定制,能够让模型效果比通用模型或普通API强得多,特别是当加入客户自己的业务数据后,效果会更为出色。
尽管使用者体验容易被复制,但真正拉开差距的护城河是企业自己积累的数据和使用者利用习惯——这些数据形成的反馈循环特别主要,会直接反哺到他们利用的AI模型里。
需要注意的是,
乔琳预测,2025年将成为"Agent年"和"开源模型年"。
需要注意的是,
各行业将涌现大量化解垂直状况的AI智能体,同时开源模型将迎来井喷式发展——就像DeepSeek当时发布仅一个月,Hugging Face上就出现了500多个优化版本,还成功将其适配到各种设备和云平台上,Perplexity和她的客户Linnk还开发了针对金融服务的定制版本。
值得注意的是,
不过,她也指出,未来最大的挑战在于:
如何让高速发展的AI智能体和开源模型更好地结合,在最后一公里实现质量优化,为使用者供给更好的实时体验。这也是FireworksAI公司今年要重点化解的状况——简化开发者在这方面的工作流程。
在4月纽约举办的行业峰会上,乔琳展示了团队的终极愿景:"咱们赌定那些真正懂产品的开发者。谁能玩转自己的数据、调教出更聪明的模型,谁就能赢到最后。"
FireworksAI要做的,就是供给插件与基础设施,帮助开发者定制模型、注入数据,全面提升推理质量、速度与并发能力——让每个用心打磨产品的团队,都能站上AI时代的聚光灯下。返回搜狐,查看更多
- 我的微信
- 这是我的微信扫一扫
-
- 我的微信公众号
- 我的微信公众号扫一扫
-