打新股鑫东财配资_期货行情鑫东财配资_股票走势图鑫东财配资

打新股鑫东财配资_期货行情鑫东财配资_股票走势图鑫东财配资 你的位置:打新股鑫东财配资_期货行情鑫东财配资_股票走势图鑫东财配资 > 打新股鑫东财配资 >

在线股票炒股配资 “卷王”豆包上桌,压力给到了谁?

发布日期:2025-01-18 02:08    点击次数:162

在线股票炒股配资 “卷王”豆包上桌,压力给到了谁?

11月11日的资金流向数据方面,主力资金净流出1895.3万元,占总成交额8.87%在线股票炒股配资,游资资金净流入448.0万元,占总成交额2.1%,散户资金净流入1447.3万元,占总成交额6.77%。

11月11日的资金流向数据方面,主力资金净流出2480.03万元,占总成交额11.57%,游资资金净流出475.34万元,占总成交额2.22%,散户资金净流入2955.37万元,占总成交额13.79%。

文 | 科技新知,作者 | 思原,编辑 | 蕨影

大模型赛道打了一年的价格战,还在继续 ……

就在新年前一天,阿里云宣布 2024 年度第三轮大模型降价,通义千问视觉理解模型全线降价超 80%。

同样,前不久火山引擎的 Force 大会上,除了大力宣传豆包外,最值得关注的还是价格的再次下降。目前豆包视觉理解模型输入价格为 0.003 元 / 千 tokens,1 块钱可处理 284 张 720P 的图片。

此前去年 5 月份,豆包通用模型 pro-32k 版,推理输入价格为 0.0008 元 / 千 tokens,价格不到 1 厘。此举迫使阿里云对其三款通义千问核心模型进行新一轮降价,降幅高达 90%。而百度智能云则更为激进,宣布文心大模型旗下的两款主打产品—— ENIRE Speed 与 ENIRE Lite,将全面免费开放。

按照火山引擎总裁谭待的说法,"市场需要充分竞争,降低成本是技术优化的结果,做得最好才能活下来"。显然,在这场大模型的军备竞赛中,豆包想要上演"大力出奇迹"的戏码。

但在字节大肆内卷之下,也有质疑不断:豆包的价格真的足够便宜吗?为什么大模型要卷价格?未来价格还会成为企业拿单重点吗?

降价夸张?满是套路

想要理解大模型商家的套路,就需要了解大模型的商业模式。据"远川科技评论 "梳理,目前来看各家提供的服务主要可分为三种:

一是包含模型推理的基础服务,指的是根据输入的信息内容,给出回答的过程。简单来说就是"实际使用"模型的过程。这部分各家都有不同的模型标准。

二是模型精调,厂商可以根据客户需求按 token 使用量(训练文本*训练迭代次数)计费,训练完成后出账,按量后付费。

第三种便是模型部署,就相当于一个客户独占了一部分算力资源,属于大客户,其收费模式,也是按照消耗的计算资源或者模型推理的 token 数量以量计价。

这 3 种收费模式,代表的也是大模型开发由浅入深的过程。而各大科技公司疯狂砍价的,其实是第一种基础服务,即标准版模型的推理费用。而这部分定价又分成了"输入"和"输出"两部分。简单来说,输入就是用户提问的内容,而输出则是大模型的回答。

在调用大模型时往往会根据输入和输出的 token 数量,进行双向计费。这种细微差异,很容易成为大模型公司的套路。

例如,豆包的通用模型 Doubao Pro-32k,输入价格为" 0.8 元 / 百万 tokens ",按照官方说法是比行业便宜了 99.3%,一些主流模型也都开始了降价,比如阿里云三款通义千问主力模型 Qwen-Turbo 价格较之前直降 85%,低至百万 tokens 0.3 元,Qwen-Plus 和 Qwen-Max 的输入价格分别再降价 80% 和 50%,分别为 0.8 元 / 百万 tokens 和 20 元 / 百万 tokens。

但输出价格方面有所差别,2 元 / 百万 tokens 的价格与 Qwen-Plus、DeepSeek-V2 等同行持平,甚至比比 Qwen-Turbo、GLM-4-9B 等一些同行产品价格更高。

再看最新的豆包视觉理解模型 Doubao-vision-pro-32k,输入化为每百万 tokens 的售价为 3 元,大概是 0.4 美元,输出直接来到了 9 元,大概为 1.23 美元。按照豆包说法,这个售价比行业平均价格便宜 85%。

但对比几个直接竞争者:阿里的多模态模型 Qwen-VL 系列在最近降价后与其价格一致;多模态的 Gemini 1.5 Flash 模型每百万输入 tokens 报价为 0.075 美元、每百万输出 tokens 成本为 0.3 美元,对于较小的上下文(小于 128k)还另有折扣价;GPT-4o mini 则是输入 0.15 美元,输出 0.6 美元。

不过不止豆包,国内其他厂商基本也都有类似的降价"套路"。例如百度宣布免费的 ERNIE-Speed-8K,如果实际部署,收费就变成了 5 元 / 百万 tokens。还有阿里的 Qwen-Max,实际与字节跳动的豆包通用模型 Pro-32k 一样,只是降低了输入的价格。

值得一提的是,标准模型推理的降价确实可以让中小开发者降低成本,但只要稍微更进一步的使用,就涉及到了模型微调和模型部署,然而这两项服务一直都不是价格战的主角,并且也没有太大降价幅度。

简单来说,各家降价最狠的其实都是轻量级的预置模型;相比之下,性能更强悍的"超大杯"模型,实际降价幅度没有那么夸张。例如精调的 Doubao-pro 系列的价格都在 50 元 / 百万 tokens,比阿里、腾讯这些厂商的旗舰主力模型价格更高。

各大厂商风风火火的掀起的价格战,就像是打网游,用各种形式吸引玩家,再在游戏中加上各种玩法,总之就是想要变强就要氪金。当然,即便如此,各个大厂也算是真金白银的付出很多,那么为什么这些厂商在一直围绕价格大费周章呢?

想做好,热度不能停

纵观大模型行业,字节跳动一定算不上起跑最快的那一批选手,甚至今年年初,字节跳动 CEO 梁汝波在内部讲话中提到"迟钝"二字,直指字节对大模型的敏感度不如创业公司。

"直到 2023 年才开始讨论 GPT,而业内做得比较好的大模型创业公司都是在 2018 年至 2021 年创立的。"他说。

后来者往往是最需要内卷的那个,字节跳动也是如此。从今年年中开始,便开始制造一轮又一轮热度。

除了上文所说的,豆包在 B 端的让利降价意图明显外,C 端市场豆包也是全力出击。

面向 C 端,无论是线上平台,还是线下公开场所,都能看到豆包的身影。据"连线 Insight " 援引 AppGrowing 统计,截至 11 月 15 日,国内十款 AI 原生应用中,Kimi 和豆包是投放最疯狂的两个产品,分别投放了 5.4 亿元和 4 亿元。

拉长时间线看,豆包的投流显然更猛烈。据 AppGrowing 统计,2024 年 4 月— 5 月,豆包投放金额预计为 1500 万元 -1750 万元。6 月上旬,豆包再次启动新一轮大规模的广告投放活动,投放金额高达 1.24 亿元。

除了投流外,豆包还有抖音这一流量池,字节几乎屏蔽了除了豆包以外所有 AI 应用在抖音上的投放。目的也很明确,就是要彻底解决大模型应用的"用户焦虑"。

然而,现实往往事与愿违。据"智能涌现"报道,字节内部反思——豆包目前的用户活跃度并不算高。豆包每周仅活跃 2 至 3 天,且每天用户发送消息轮次仅为 5 到 6 次,单次 2 分钟左右,用户人均使用时长仅为 10 分钟左右。上述这些数据在过去一年中的增长幅度并不显著。

简单来说,不计成本的投流,虽然让豆包成了国内用户数量断层式第一的 AI 软件,但仍然算不上是一款 killer app。

字节管理层对此的判断是,像豆包这样的 AI 对话类产品可能只是 AI 产品的"中间态"。字节内部判断,付费订阅模式在中国不太可能走通。而时长和轮次太低,又导致潜在的广告空间较小,这都构成了这类产品的隐形天花板。

所以长期来看,更低门槛、更"多模态"的产品形式更具落地可能,剪映和即梦可能是合适的入口,这也是此次大会豆包将部分重点放在视频模型的本质原因。

但站在用户角度,根据"财经杂志"报道,大部分用户买单的原因是产品和服务能带来价值,价值不光是解决具体问题,如提升工作效率、提供情感陪伴等,市场上还有一类价值是"符合政策方向"。更重要的要具备找到具体客户并交付的能力,这考验的是 AI 公司在技术和产品之外的能力,甚至在很多时候,这项能力比技术实力更能帮助 AI 公司成长。

中国的 AI 市场和美国不同,很难通过平台销售软件的模式打开市场,大部分时候需要抓住一个个的项目和工程来实现商业化。而这些项目和工程的来源,往往与自身热度有关。

"一家成熟的企业在布局大模型时,很难会去考虑一个不成熟的产品或者企业。在不考虑成本的情况下,大品牌往往是首选,这不仅是技术上的信任,更多是服务、整体质量的信任",一位科技企业管理人员向「科技新知」表示,"毕竟小厂的风险还是有的,就像买车,开着开着车厂倒闭了,那就损失大了"。

初创公司大肆制造热点新闻,大概率是为了融资,是为了活下去,而豆包这种本就有背景的,则是想要靠着热度去找到并且固定更多客户,但圈内一个默认的事实就是,无论是谁、无论技术多厉害,都要善于保持热度,毕竟酒好也怕巷子深。

淘汰赛,或告别价格战

其实不止豆包,目前市面上所有二线及以下的大模型厂商,都处在花钱买流量的阶段,为的是留住用户。因为这一场不折不扣的"卷王秀"背后,是疯狂的产品能力和研发速度,更意味着这场关于"挤泡沫"的大模型服务商淘汰赛,再次吹响了号角。

2024 年已经经历了一轮淘汰赛洗礼,让大模型去九存一,产业格局更加合理,只留下了约 10% 的大模型进入决赛圈。

然而,这并不是结束,而是开始。只是在「科技新知」看来,新一轮淘汰赛的重点,价格不再是主导因素而是技术。

目前科技公司们也开始陆续意识到,仅发布一个免费的应用,并不能为公司带来直接收益,C 端用户量很难增长,获客成本已经明显提升。更重要的是去直接触及那些愿意付费的 B 端客户,例如金融、政务、汽车等行业。

但是通常有大量公司集中进入某个行业时,会出现持久的价格战,因为各家都需要打造一个标杆客户,来为之后的市场拓展铺路。简单粗暴的价格战会让一些公司主动或被动退出,待市场稳定后,再将价格恢复常态。

但矛盾之处在于,"有钱"的领域大家都想进入。而长久的价格战下,技术成本变成了制胜关键,简单来说,同样的解决方案和报价下,谁的技术成本更低,谁就能亏得更少,活得更久。

而技术成本取决于企业的硬件成本和算法逻辑,这点目前国内主流的大模型厂商基本处在同一水准,并且迭代和互相追赶的速度也不相上下,但这不代表可以高枕无忧。

今年 9 月,OpenAI 的"王炸" o1 模型的问世也让各家看到了差距,与现有的大模型相比,o1 最大的特点就是"推理式 AI ",它在回答复杂问题时会花费更多时间来逐步推演问题。这种延时思考并不是缺点,反而让 o1 更接近人类真实的逻辑推理方式。

从"生成式 AI "到"推理式 AI ",o1 的推出预示着 AI 进入了一个全新的阶段。而更令人震惊的是,在 o1 发布的 3 个月后,下一代 o 系列产品 o3 便横空出世,并且 o3 有完整版和 mini 版,新功能是可将模型推理时间设置为低、中、高,模型思考时间越高,效果越好。mini 版更精简,针对特定任务进行了微调,将在 1 月底推出,之后不久推出 o3 完整版。

这也意味着快速迭代下,目前主流的生成式 AI,即将成为历史产品。

"价格是影响大模型企业的因素,但更重要的还是技术能力,"一位大模型应用开发者向「科技新知」表示,"目前国内如阿里、昆仑万维等企业也都推出类 o1 模型,虽然有差距,但也代表了他们也都认同这一趋势。"

一位业内专家也表示,国内企业走的思路是集成思维链、用搜索方式提升深度推理能力、加入反思策略和算法提升逻辑推理性能,但目前还未完全超过 OpenAI。

值得一提的是,国内最近比较火的 DeepSeek-V3,采用的蒸馏技术给行业提供了新思路,但同时也陷入"优化 GPT "的争论。

而针对 AI 训练可能使用合成数据(大模型生成数据)这一话题,伦敦大学学院(UCL)名誉教授和计算机科学家彼得 · 本特利表达了担忧,称"如果继续在其他 AI 的输出上训练 AI,结果可能是模型崩溃。确保高质量 AI 的唯一方法是,为其提供人类的高质量内容。"

"缺乏参照的现成开源架构,不清楚 o1 模型做后训练时强化学习的方式以及使用的数据集,树搜索、COT 未开源,训练数据污染、国产模型推理性能提升困难,这些都是目前国内企业的难点,"该专家补充道,"不过若有支持 o1 架构的开源模型出现会加速这一过程,过程中会有两三家先跑,其他家后跟进。"

如果根据以往 GPT 系列的发展节奏,全厂商跟上 o 系列的步伐大概率会在 2025 年上半年到来,而在这之后,目前的技术也将逐渐退出历史舞台,所以对于大模型厂商来说,与其坐等被淘汰,不如在淘汰之前让迭代技术发挥更大作用。

总的来看,未来价格虽仍会是影响企业拿单的因素之一,但随着技术的快速迭代和行业的发展,技术能力将越发关键,只有不断提升技术、降低成本、优化服务,大模型厂商才能在即将到来的淘汰赛中存活下来。

参考资料:

[ 1 ] 《豆包再降价,字节"饱和式"进攻仍在继续》, 连线 Insight 

[ 2 ] 《大模型价格战,还能再狠一点》,远川科技评论

[ 3 ] 《中国大模型洗牌年将开启,暗藏两大逻辑》,财经

[ 4 ] 《字节内部判断 AI 对话类产品天花板可能不高,提升剪映即梦优先级》在线股票炒股配资,智能涌现