What's Next|科技早知道

年终总结1:中国大模型出海:开源模型是只赚吆喝不赚钱吗?| S9E42

39 min
Dec 24, 20254 months ago
Listen to Episode
Summary

This episode analyzes China's open-source LLM exports to global markets, examining how Chinese models generate 30% of API calls on OpenRouter despite minimal direct monetization. The discussion covers three market entry strategies—routing platforms, inference partners, and direct product launches—and explores how Chinese model companies can achieve sustainable revenue through licensing models and enterprise hosting.

Insights
  • Chinese open-source models capture 30% of OpenRouter's token calls but generate minimal revenue for model creators; most profits flow to infrastructure intermediaries like Fireworks and OpenRouter
  • Enterprise customers prioritize data sovereignty and privacy over model origin; hosting data in US datacenters eliminates geopolitical concerns about Chinese models
  • Open-source model development serves long-term brand building and ecosystem positioning rather than immediate monetization, similar to how DeepSeek's R1 accelerated industry-wide reasoning capabilities
  • Licensing-based open-source models (verified in Western markets) offer viable revenue paths without sacrificing community adoption or post-training flexibility
  • Specialized use cases like NSFW content, roleplay, and uncensored applications represent 40-50% of open-source model usage, where closed-source alternatives cannot compete
Trends
Inference partners (Fireworks, Replicate) becoming primary value capture layer for Chinese model exports rather than model creatorsEnterprise adoption of Chinese models accelerating when paired with US-based inference infrastructure and data residency guaranteesReasoning models (post-DeepSeek R1) becoming table-stakes feature across all model categories, driving open-source model competitionLicensing-based open-source models gaining traction as viable monetization strategy in Western markets with strong IP enforcement cultureSpecialized vertical markets (medical, financial, NSFW) emerging as differentiation opportunities for Chinese models with fewer censorship constraintsCommunity engagement and developer relations becoming critical competitive advantage for Chinese model exports (Reddit, X, AMA sessions)Data residency and compliance becoming primary purchase decision drivers, superseding model origin concerns for enterprise buyersMulti-modal models with creative/studio applications (Kuaishou Kling) showing stronger direct monetization than pure language modelsShift from SOTA model obsession to 'good enough' models with lower costs, favoring Chinese model economicsSelf-hosting and direct US entity establishment emerging as next-phase strategy for leading Chinese model companies
Topics
Open-source LLM export strategies to US marketToken monetization and pricing models for AI inferenceInference platform business models and market consolidationEnterprise data sovereignty and compliance requirementsGeopolitical considerations in AI model adoptionLicensing models for open-source AI softwareReasoning capabilities as competitive differentiatorCensorship-resistant model applications and use casesCommunity building and developer relations for AI modelsMulti-modal model applications in creative industriesUS datacenters and GPU infrastructure for model hostingPost-training and fine-tuning economicsVertical market specialization in healthcare and finance AIBrand building through academic paper publicationLong-term strategy vs short-term KPI optimization in AI
Companies
OpenRouter
Routing platform where Chinese models represent 30% of token calls; primarily used by individual developers and non-e...
Fireworks
Leading inference partner hosting open-source models for enterprise customers; backed by Sequoia, Lightspeed, AMD, NV...
Perplexity
Search product using Chinese open-source models via Fireworks for free tier users; demonstrates enterprise adoption o...
DeepSeek
Chinese model company that open-sourced R1 reasoning model, accelerating industry-wide adoption of reasoning capabili...
Kimi (Moonshot AI)
Chinese model company with strong community engagement on social platforms; K2 model received significant media atten...
Kuaishou Kling
Chinese multi-modal model focused on creative studio and advertising applications; demonstrates direct product moneti...
MiniMax
Chinese model company recently launching video models with growing community engagement
OpenAI
Closed-source alternative; enterprises avoid due to data privacy concerns and competitive intelligence risks
Google (Gemini)
Closed-source alternative with similar data sovereignty concerns as OpenAI for enterprise customers
Anthropic
Closed-source model provider; limited direct hosting partnerships compared to open-source alternatives
CoreWeave
GPU infrastructure provider partnering with inference platforms to host models in US datacenters
AWS Bedrock
Cloud service offering proprietary model APIs; example of limited open-source hosting by closed-source model creators
Meta
Open-source model provider (Llama); competes with Chinese models in open-source ecosystem
Databricks
Referenced as example of successful licensing-based open-source business model in tech sector
Replicate
Inference partner platform hosting open-source models for enterprise customers
People
Forest
First-line observer of Chinese model exports to US market; guest providing on-the-ground insights from Silicon Valley
丁教 (Host)
Host of What's Next podcast; moderates discussion on Chinese LLM export strategies
Quotes
"从2024年其实全年只有1.2%的模型调用使用的中国模型,2025年这个数据变成了30%"
HostOpening segment
"开源模型提供者绝大部分都是用中国厂商占据"
ForestMid-discussion
"中国模型能赚到钱的是主要是在B端模型上,所以中国有很多B端的多模态的模型"
ForestMonetization discussion
"企业对于模型是中国出的其实并没有那么强的介意,因为如果数据在美国,成本可控,中国模型还是可以有意拼的"
ForestEnterprise adoption segment
"开源的licensing model,模型确实是开源但是它的licensing是一个要去收费的这样一种模式"
ForestFuture monetization strategies
Full Transcript
用声音 碰撞世界 生动活泼 值不值得做 哪些方法有效 哪些需要保持谨慎 我们也会邀请一些AI平台以及搜索相关产品的方向的从业者 以及正在用AI智能体做内容生产的一些从业者 所以如果你对这个话题感兴趣的话 可以通过报名表申请参与 具体的信息我们会放在收脑里面 那另外也欢迎大家在微信视频号以及bilibili b站 让关注我们的科技早知道 那最近我们也会上线一期特别的节目 is the podcast of Jittham and the ASEAN community of EPSO and also the way they published the 2025-19-19-2022-19-2022-19-2022-19-2022-19-2022. If you have a great deal of the news for the 2025-19-2022-19-2022, and you have a great deal of the news for the 2025-19-2022. You can also see the 2025-19-2022-19-2022-19-2022-19-2022. You can also see the 2025-19-2022-19-2022-19-2022. Hello, everyone. Welcome to our today's 2025-2022-19-2022. I'm丁教. Today, it's our 2025-2022-2022-2022-2022. 年终总结的第一期 其实想跟大家聊一聊 2025年全年整个行业都在关注的一个很重要的领域 那就是中国大模型出海 从2025年过年的时候 大家都知道发生了Deep Seek Moment 在之后的一整个全年的中国模型 特别是开源大模型的出海 其实不仅仅是在国内 在海外也都是备受关注 最近呢我看到了一个数据 还挺值得我们去深究的 就是OpenRouter和Andreason 他们最近联合发布了一个报告他们的中文名字叫做真实世界100万亿级别的 token调用数据我会把英文的报告的名字放在我们的收到里如果大家感谢的话可以去看其中一个数据点我觉得非常的有意思就是从2024年其实全年只有1.2%的模型调用使用的中国模型2025年这个数据变成了30%我觉得这个还挺值得让我们去深入探究一下的中国模型被调用了这么多有没有模型公司已经在赚钱了他们怎么赚的 那是不是真正的被应用在了海外的企业里面 是被哪一些行业在使用 所以我前两天在矽谷的一次线下活动认识了Forest 那他其实是大模型出海一线的这个从业者 所以今天也想请他来跟我们 把他今年整个一线的这个观察 跟我们一起分析一下 Hello Forest 你好 All right, thank you. Thank you for your welcome. Everyone, everyone. Yeah, that we actually can see this data. This 30% of this data is a surprise? Or is this data you will be more safe? If the State of War this report is from Open Router and from the bank and from the bank and from the bank I think the 30% of this data will be a little safe. It will be a little safe. Because there are a lot of data that we don't have to go. So Open Router also no hosting this more tight-type machine. So there are some companies through inference platform to hosting the that are not in there. So inference platform definitely use a lot of times use the type of machine. So I think the number of things is being保守. So these cases probably比 the other way that is more. Open Router it is a platform and you don't know what you use and what kind of machine and you every time you use it and you use it and you use it and you use it and you use it and you use it and it's a API and you use it and you use it and you use it and you use it to understand the version of the application. It is because Xai is in substituting marketing functions so that actually we have to look so that origins Yagony 28 Open Opera those gesagt大部分是个人开发者以及对隐私没有那么在意的一些用户一些场景同时其实还有一个流量叫做RopeA在看院模型上的流量也非常高可能占据了有一小盘到一半的位置然后OpenRouter它的提供上也非常多后面如果你去看它的DataProvider可能会有十几到二十多个非常的DiversifyOpenRouter主要是 因为有很多叫做Inference Platform的人去把科学模型下载,然后提供给OpenRouter,所以说它的价,因为在模型上面有成本,它的成本直接来自于GPU的租赁,然后呢,在延迟上也没有很多的要求,所以说它可以放在真可能便宜的地方。 that one dayedER a framework and also other companies and also other companies are good for the SOTA actually no longer I think that you can say SOTA is not a lot of people understand this state of the art and then the most popular or frontier model and the most popular because of SOTA and the most popular or the most popular and the most popular 美国市场上几乎没有Sota的大源模型,就是参数量比较大的, 美国市场上存在科研模型,那主要是参数量比较少一点, 像很多其他厂商,微软,google,他们也都有开源的Gemma, 非有什么什么,但是他们是参数量比较小,所以应用的场景会非常有限, 这样的一种情况导致说开源模型提供者绝大部分都是用中国厂商占据。明白所以其实我们再回到 Open Router它上面的数据其实大部分也不是大部分其实30%是调用中国投稿的其实剩下70%就还是美国国内的或者是其他国家提供的可以这么说可以这么说然后您刚刚讲到在Open Router上的使用的人基本上可能是个体开发者个人开发者然后他的你刚刚讲的是有一些coding然后是有一些的是 Lowplay 角色扮演对 今年看另外一个数据是可能50%的使用这个大模型的其实都是在Rowplay的这个应用的需求这类应用可能比较偏游戏类或者说创意写作类或者说个人幻想类也就是说它对性能要求没有那么高对延迟要求也没有那么高对隐私要求也没有那么高所以说这些用户或者这种个人开发者他们其实不太需要用中国的大模型其实可能很多各种小模型也就够了嗯 差不多然后我们抛开像OpenRouter这样的路由的这种中间层提供商我们不说然后我们再说另外一种形式就是这个Inference Partner然后这块的市场其实您看到的是占有很大部分的用户的需求是吗就是需要Inference Partner但它这两者到底的这个不一样的是什么东西Inference Partner比方说在美国市场上以Fireworks为代表还有很多像Pegator AI啊什么的他们租用GPU的算力他们要hosting 几乎可以说是百分之百的用开源模型 因为币源模型不会给它去hosting 但是有一种特殊的情况就是币源模型厂商将自己的专利 将自己的币源模型以container的方式打包 仅仅开放这个API service给到这个influence partner 但是这部分算是比较小的一种case 打个比方说像 Anthropic Boost在AWS的Bedrock上面这种方式是比较小我们可以暂且会不会不及对于Inference Partner大部分时候还是使用开源模型自己去hosting给企业用户提供推理服务那这是大部分的中国模型厂商也会选用的一个主流的方式来进入美国市场吗应该说不是中国模型方选择的方式而是说中国模型方它因为开源了这个模型被Inference Partner去使用换句话说Inference Partner是受益的一种情况他们会有一种想要贡献或者说想要帮助看原色去见识的一种心理或者态度而模型方并没有直接受益那如果我们要看这个推理合作伙伴和之前的路由它最大的差别是在哪里路由的话是你不知道这个数据去向哪里你可能会选的最便宜的随时会换用户也没有品牌中程度 而这个Inference Partner呢 他通常会是跟企业 有一个contract的合约 企业指定要求这长时间 在什么地方 Hosting一个什么样的模型 换句话说 企业对于模型和数据的落地 等各方面都会有清晰的visibility 有自主可控掌握权 而他仅仅是因为 我不想去自己做数据中心 自己去跟GPU啊 Cluster这些底层应件资源打交道 我希望有人帮我做这些事情 But I understand the timeline of our application and in the information So this can be beneficial for more enterprise operators and development so this is a 6000 more such as that fixed the trade and then there is a service level agreement a rather torture and as possible, the cost it can hold a rights of the structure and therefore thebearance partnership must avoid the benefits of the How should have, may or de-weight 如果说Inference Partner承担了一些风险呢,他一定会有商业的收益过来。 我觉得我看到了整个像Fireworks今年,其实它的增长很夸张。 非常多,然后上时让我看也是一个华人背景的一个,原来从Meta出来的。 是,没错,Meta,Pyta集团队。 看今年不仅仅是红杉,然后像是光速透露他们,然后包括其实还有AMD,然后也有NVIDIA。 Yeah, can be said is Inference Partner in the new one. Yeah, so what kind of companies do you see is using Inference Partner? Inference Partner it actually is all about what kind of things are there, right? And then there is a code and then there are different kinds of things that are there. Yeah, actually we don't know what kind of companies are doing. Many times they are not going to be透露. But if we look at Fireworks, you can see some examples.比较典型的一个是 Perplexity当免费用户就是谁都用户没有去订阅 Perplexity的这个Pro方案的时候你可能没有办法去选择我要用哪一个model你没法指定你只能用一个默认的默认这个时候拥有在很多时候会显示为auto这个模型往往是用中国的开源的模型去hosting有可能会经过一些finecruing啊什么的但它一定会是被inference partner去hosting那么所以客户就是 加班和Everance Partner会有一个contract Everance Partner去指定用什么模型 去提供这样的一个在Ultim模型的一档上 明白明白 所以也可以看到就像是Publicity 然后很多其他的大模型 提供上面会有一个什么中国模型的名字 然后后面有一个括号 然后Hosting US 这样的中间的一个数据流是怎么样流向的 然后是什么提供的服务 能不能帮我们再具体的这个解释一下 是对 这很好的问题 同样的在Property If you do it, you will seesi-fi main choices inuis. You can see a Peelike Re merk on when you've got a presence side by natural taps. You can see it in the one-geme Utd position. But the可愛 meaning is the hosting in US. For example, imobiliers ago it's a future to meet inопасity. It's a future to seemanship due to time organisations. In Japan this more stimulating is the use of shear immersions. by looking at and asking hoch Меня you use to reach into--------орошills. 用力往往是企业用户 他对数据的出境 数据的安全和隐私都比较有 concern 所以他一定要求说数据要放在美国 那么由于Kimi K2 Thinking这样的模型 它的参数量是one trading 所以说个人或者组织想要去hold 它的成本非常高 打比方说可能需要 如果说是FP8半半精度的话 需要16个H200 that the on-site that the average of .pent actually quite so the people or nothing or no you can go forward to the base of bringt so they need to ministre with therecord diabetes this works kind of users actually during all the much attention So, the inference partner will be sure that the information will be in the US, and it will be in the US, and will be in the US, and will be in the US, and will be in the US. So, these will be a可能, like the inference partner, like Fireworks, so they actually is to host the company's company. They may be with CoreWeave, core weave这样子的公司在合作对 然后他们把跟Hyper Scaler跟Leo Cloud去租GPU可能是在美国的数据中心某个角度的数据中心对 然后他们其实把中间的合规数据hosting完全都做好了那我想问那中国模型他们这一部分的钱是从哪里赚出来的呢他们就是卖token吗如果模型开源之后其实模型方在开源模型上并没有赚到钱中国模型能赚到钱的是 主要是在B原模型上 所以中国有很多B原的多模态的模型 打一个比方 比较常见的是快手的平 他在创意 创作 studio filming ads and placement social这方面有比较高的市场 就是纯创意啊 广告啊 就creator 对 所以他不触及任何的 可能在大模型本身的语言 training上面会有一些什么样可能比较敏感的信息是 那即使这方面是属于中国模型在多么太过深方面并且地缘的情况下它赚到了钱的一个例子它纯粹是产品出海了它并不是一个其中的生态的一部分的一个提供商纯产品出海 marketing出海把totten卖到了北面市场对 跟之前我们聊的大语言模型的排院完全是on the opposite side明白明白 So they actually hold where now they're facing. They're facing these customers. They're not in the same way. Because these are not a very敏感 data. Yes. We know that the situation is they're hosting in Singapore. But they're not in China. The inference platform is a big influence. The inference platform is a big influence. The other one is Domartai's influence. This company in the城市. There are more famous for Fowl.AI. It's a big influence. It's a big influence. It's a generative AI platform. He has become a legal tax Lilian company for privatewear services. He has become a common lawyer by a client. Is what everyone expects for ensuring? 이것도енты from which we are looking for... Since we have the need to ally today, the SCP will give evidence tocych detox, To llevoted everything, between United States, Canada, Singapore, ordinary Jewel, Republic of America, attempted to keep in accordance withdrawals. Otherウ看orals will have the rudder to wish itзыado. 出美国都不允许 也会有这种情况 Concerment 2就是 输入和输出数据 不得用于再训练 OK 那这是整个行业的 标准吧 当然这是对于B端而言 对于C端是不存在的 免费用户就不要跟我 太隐私了 没有不费他什么意思 所以 OK 我们现在讲B端的话 是数据不能够用于再训练 Concerment 3是说 数据可删除 有的会说在多长时间以内 有的会说数据 所有数据都不允许 有的会说多长时间以内 On demand可以被删除 这些条款也是可以customizable 但是你会知道 这些三个concern都是比较common的concern 有这样子的一些顾虑的客户 他是占大部分吗 大比例吗 他是占大部分 可以说是Enterprise这一边的大部分 或者说Enterprise客户 都会有这样三个这样的要求 但据我所知其实在美国 它是没有有这样子的专门的法律法规的要求的 那其实就是这个企业内部的法务内控 它们其实是在做更多的一些保护的 可能前瞻性的保护措施 这样的结果可能是地缘政治加意识形态 再加上法务对于自己的business保护的综合体 打比方说在法律上其实联邦政府并没有要求不可以用这些模型 联邦政府只有一个叫做EEO14117的总统令 说超过100个USPerson的数据就算成是这个Sensitivity 就是100个美国人的 100个USPerson以上 那其实如果说你说你用了多少个 用了10个是不是就OK 其实联邦禁令只是在大规模数据出境上有concern有规定有restriction 并没有说不可以用中国convention或者说并不可以用中国美国境外以外的这个influencing 所以这方面企业的要求其实是基于地缘政治以及其他方面的考虑下的一个综合结果 其他方面还有包括企业对自己的隐私比方说对于企业的coding他不想去用Natropic或者说OpenAI会有一个很简单的逻辑我不想把我的数据直接发给OpenAI所以说他会有这样的顾虑但如果他一定要用的话一定会去他会成为一个B的用户去直接跟模型情况上签一个specialized的这个termData Protection Agreement去说一切东西不能用于训练 and you cannot limit them and have no exposure as you can invite them into quickly Yes Partner 完全根据产品放出来 然后这个大部分的这个客户的使用方向 还是在广告啊 然后是在可能创意方向的这种多模态的这样子模型的应用 然后包括有一些coding对吧 这块其实是不太涉及一些这个敏感信息的 And then you mentioned that many companies in this year are not willing to use like the American popular OpenAI or Google they offer a model of API API and the interface is that they think they want to hold their data and not want to get their data and be these companies to get and not even is体现 maybe in this year Gemini or OpenAI they have done a lot in-use of the products this also makes a lot of開発 not want to think I don't think I should 早已不被这个OpenAI看到了我的数据被我的市场份额慢慢被蚕食了 有这样的可能性 就是说但也不是绝对 就是说一定会有企业去跟类似OpenAI或者Jemilai或者Enthropping的前企业级的合同 那这样的合同里面如果API调用 他就会有对数据落地数据隐私方面的term要求 模型方也一定会去满足 但是不代表所有的应用场景都会是这种方式 基于cost 阶纯成本的顾虑 有一些企业比方说更传统的一些的 它的任务可能也许不需要要用Sota 才能达到 它可能用接近Sota的开源模型也能做到 那它可以去走 比方说这个Inference Partner的方式 去把这件事情解决掉 那这种方式对于这样更保守的一些的企业来讲 完全数据可碰相当于类似于私有化部署的方式它会非常放心它在合规上就是法务会觉得非常有信心的问题因为是私有化部署嘛所以这也是一部分场景美国客户他们会不会在意这个是中国的模型他们有很多的法务上面的顾虑但是从另外一个角度说如果他们用了中国的开源模型然后在他们相信的数据能够存在美国的推理合作伙伴的手中的时候他们其实对什么模型他们其实没有太多的偏好他只要是知道数据在哪里成本可控然后其实中国模型还是可以有意拼的对 我同意我觉得美国市场上对于这个模型是中国出的其实并没有那么强的介意因为如果中国出的模型如果对于开源而言它其实可以拿着这个东西去做后训练它是可以看到这里边到底是一个什么样的场景可以做蒸馏什么的其实换句话说 And if data isn't fast lie, it can be moved to China. It can be at an container. So, the machine has its own choice of all. Most of the population isбиachte. I appreciate it. 钱都是基本上是停留在了中间层 就是像是这个Open Router啊 或者是这个Firework这一层 那为什么还那么多的中国的企业 中国的这个模型公司在卷模型 然后在出海 然后在不断地去做它的 比如是社区的这个预热呀 然后还争相恐后地去进入 像是Open Router这样子的一些平台服务商 那他们图什么 如果卖Token也不赚钱 对不对 可能中国Token 美国Token的五分之一 甚至十分之一的这个价格 但是其实你反过来也不一定赚钱 即使是你量大 我曾经常常批评就是说很多中国厂商在市场上比较短期的利益考虑 或者说KPS短期局委比较缺乏长期战略 但是在模型这件事情上我感觉中国厂商是比较long term性的 比方说很多厂商都坚持的去模型开源 模型开篇的好处我们现在可以看到的是它建立了自己的reputation 建立了自己模型的这个brand的image 我们已经可以看到说模型会有一些模型会转成B缘 有可能会赚钱商业化 另外一部分呢是说模型的竞争仍然是在持续白乐化 并且推理服务是在持续做大的 所以持续的卷模型的能力仍然是有意义的假设说如果模型的能力又足够好而它的成本又足够低的时候或许防定的时候包括中端开发者甚至可以不必介意我们到底是在使用哪一个模型因为可能大家都足够好然后成本又足够低所以我觉得持续的有意义以后也有可能挣到钱因为这台开月模型也就两年开月模型的发展所以说我觉得这台已经开始 So,对于这些出海的开源模型的厂商,他们其实还是在社区里面想要营造一种长期的信任的感觉,不管是,我看很多人包括什么像Kimi,然后最早其实包括DeepSeek,他们也都是在,不管是在X上面还是在Reddit上面,其实是跟开发者社区互动还是蛮多的,然后做这种Ask me anything,这个回答问题,都还是挺频繁的,所以其实也是有一些正向的反馈过来,然后像是有一些海外的 知名公司的CEO啊 FONZER他们都说 我觉得中国模型在这块还不错 不管是中国媒体还是美国媒体 都是挺沸腾的 然后Kimi K2出来之后 我看彭博一篇文章就说 难道Deep Seek Moment会变成常态吗 然后反过来可能国内媒体 也是觉得我们这个扬眉吐气了 然后可能我们的模型 其实已经进入主流了 但我觉得其实刚讲到这个 进入主流 然后现在已经是进入生态然后是否商业化是否赚钱其实是一个更加需要长期考量的事情本来说Deep Seek它其实完全没有在海外市场它其实是赚了一个赚了一个吆喝赚了一个名声然后后面其实下面的今年后面的一些时间反而是有一些其他的模型的厂商它持续在做这个事情然后据你的分析它可能就是长期的会有一个到底是不是要转币源呢还是要这个是不是要加点自己的这个长线的品牌 为这一步再铺路 我觉得有这个可能性 中国开源模型在不停地发 paper 以及开源 其实本身对于模型的开发 眼镜也是有非常积极的正常的意义 比方说Deep Seek的这个Rainting R1在今年开源之后并且发了paper 极大的促进了所有其他开源模型 的追随领推理服务的进展 所以使得说我们看到今年大概三十月份以后推理模型的使用的比例是逐渐发生我觉得已经很明显的趋势可以说以后一定所有模型都会是具有推理的这个capability没有推理简单的context generationtext generation的模型以后会使用会越来越少所以整个这个推理模型的开源化其实也是从deep-seek moment然后就带起来了然后后面就大家都是在卷开源模型的这个推理模型开源的推理模型 what are the pronunciation companies doing? Я think it is obvious. I'm quite sure here at one point. There is playing a emphasis on the plantter in Peep City season. At 90% in our assessment, the team linked toward O1M released an use of post-points. That was decent too, but Deepsig R1M 的 No.1M and deployment of the people wasgetting 3R1M any way from Xenon touvo VPro back a nice make in vocês. DeepSig R1的 reasoning推理但是又基于意识形态以及敏感问题的一些 censorship他自己当时用蒸留的方法把 R1蒸留出了一个PropCity自己的1776的一个具有推理能力的开源模型然后hosting在自己的上面那个时刻对于我作为PropCity的用户我是极大的感受到了推理这样的能力带来的便利性和很强的示威链带来的很强的对你搜索结果的响应所以在那个时候我就注册了就是订阅了Pepcity的Pro那么在此以后呢所有模型迅速跟上不管开源还是必源在推理的力上进一步增强所以开源是有非常积极的正面意义以及学术价值我不知道你有看到比如说是有一些开源模型他们在往转自己hosting或者转做自己转做中间层然后转做产品的这方向去试探的一些这个案例或者尝试吗我觉得有可能这是两个层次的问题其实一方面是这个涉及到regulation就涉及到如果要在美国境内去hosting自己的模型的话它涉及到一个entity然后去跟企业打交道那其实这个burden往往落在模型方面一边它的burden不是技术方面的 而是法务啊 人力 还有最后就是这个数据这一方面 就是数据算力这一方面 他需要考虑的是自己建数据中心 或许不太靠谱 那么就是自己去注定这个算力 对吧 完了之后呢 自己再去hosting So I think in the law and law and law 更复杂是在法务法规 被利斯是否赚钱这件事情上 他会要有自己的一个财务模型去做决策 可能是不是因为还是这个市场比较早期 所以可能很多大的中国的厂商他们可能还是在观望中 然后先去试一试水 那如果说是能够跑通的 其实现在看起来也就只有一个产品化的公司 就是可灵在多摩泰这边就是模型方面在美国境内直接hosting还没有发生但是我相信很快就会发生有一些可能已经正在发生并且在多么台方面赚到了钱的当然可怜是最大的market share但是后面它还排有第二和第三其实也在进入这个市场也正在engage这个market也正在赚钱或者在赚钱的路上所以你刚刚讲的 其实还是自己在做hosting这一块 然后慢慢的再去做起来 自己去hosting是一个方向 只不过每一家可能处于各自自己不同的阶段 可能目前还没有 也许将来会发生 所以这是在这个解决了客户的在数据hosting上面 所有问题其实刚刚讲的了 没有什么太大的对模型上面的顾虑 在这个技术层面上面其实大家也不是一直要追求这个SOTA模型然后能够够用就好了其实在这块反而说不定中国是有优势对 有这样的use case目前其实最后还是得看企业的个体诉求其实没有说是一个定论它是一个非常复杂的考量的一个打分系统是 是 对就是要看每一个具体的use case是怎样那通常企业的三大顾虑只要能够去满足这个可能都是有的都是存在的剩下的只是企业自己去决定去做财务上的计算那如果是从这个技术开发者这个社区啊或者品牌的建设这边现在你看到的这个从年初到是年底中间大家是不是有很大的一个变化然后对中国产品对中国技术对中国模型的这样子的一个转变那是肯定就是在各大厂商Deep Seek也好Coin也好Kimi甚至包含MiniMax做音频最近也推出了一个变成模型最近几周的视频量也会有突然的增长都是一个非常好的对于不管是reputation上来讲还是brand building image上面来讲也是一个非常好的正向的积极的作用所以如果是有其他的更多的产品需要出海的话可能这个社区是必不可少的一个层面就一定要把社区做起来 也错一定的 你有看到谁在这块做的更好一些吗 或者他们的 还是 大家在不同的use case方面的building会不一样 比方说多么泰明显是在比方说studio Hollywood style 创意工作类 这一方面是engaging market 显然就是说可林的这个多么泰模式 没有去engaging开源的编程 对吧 因为就不是那一块嘛 而其他的一些大元模型里面 擅长编程的一个模型在科技圈和编程coding这一块有很好的口碑和建筑对其实我们刚刚从一开头然后我们大概聊了一下这个中国在开月模型是怎么样通过这个像是路由啊像是Inference这种推理合作帮然后进入美国市场的然后也聊到了像是这种可能直接产品出海的然后这个其实是占小部分可能下一步这种开月模型他们如果想要进入主流市场想要真正能够赚到钱自己可能会怎么样去做这三个角度吧我不知道你觉得明年它可能会不会发生一些结构性的变化就刚刚讲了有一些这种开源模型其实说不定它会自己去做hosting然后自己真的可能在公司层面上比较有魄力然后单独在美国做一个实体然后去做hosting去做合规我不知道还有没有一些可能变数你在看到的会不会有一些更多的像是Fireworks或者是这种Open Router这样子的平台可能是由中国企业在做的你有没有看到有这样子的一些大家比较有野心的公司在做垂直领域可能会出现一些专门去hosting一些模型打底方说有一种场景就是说在医疗和健康还有financial这方面对于隐私和成本比较高风险成本比较高然后对模型的幻觉要求也比较高就是模型不能有太多的幻觉可能会出现一些新的模型和hosting当然这一周我也跟一个客户聊到就是我们通常会有一种stereotype是说开源那就是什么东西都放出去了开源就不会赚到钱我们会有这样的stereotype但是这个客户也给到我一个输入就是说是不是可以考虑开源的licensing model也就是说模型确实是开源但是它的licensing是一个要去收费的这样一种模式就是你要用这个模型你要pay licensing fee那我的反应是说那一定会有bad actorbad player不遵守这个licensing去下载了模型自己去用但是又没有给你钱对吧那对方的反应是说其实我们并不想说到模型方的法律律师性我觉得licensing这种其实在其他的这个技术sector里面它是被验证过的这样子一种商业模式像 Databricks他们应该做还蛮多这方面的是所以就是说西方的企业会比较去遵守当然不排除一定会有几个别人可能去用了但是没有遵守你的license但是overall西方市场上还是比较去遵守这样的license型的合约的所以这样的盈利模式同时开源也能够我觉得说不能说赚不到钱我觉得也有可能性并且开源的一个好处是说在很多特定的场景下开源的闭源没法提供的是开源可以用于这个被post training后训练发音tuning对吧那在很多场景比方说我们会说一个场景就是LogSafe for Work这样的场景下用户有很多这样的需求就是一些成人内容了对那这方面是一个很强的需求 这方面对这种模型的需求是 不管你是Bomotai也好 还是你是Sota的大约模型也好 它都没法提供的 因为它会被强censorship 对对对 是一些边缘 边缘案例 对 然后我们之前提到这个rope play 它为什么在开源模型上 使用量达到接近 40% 50% 也跟这个HK是有很长的关系 它天生的说我不要 被censorship 我才能够 读书 I can't say that. 因为大家 stereotype 会认为 他一年就赚不了钱 那可能是不同市场 大家的思维和出发点还是不太一样 对 但其实在美国 这个licensing它是可以的 它是可以去尝试的 还是被验证的 大家是愿意去遵守的 因为不遵守 第一口味不好 第二会接到律师信 没有人愿意被设计到这样 Involved在这样的cash里面 所以中国开源模型 可以考虑这样的方式 去拓展市场 好的 好的 那我觉得今天节目也差不多了我们其实是从各个角度也跟大家分析了现在中国模型出海的不管是从开源的币源的然后从法务的角度然后从这个到底从哪里切入可能会赚钱然后最赚钱的是什么样的公司如果大家对中国模型出海还有其他的问题的话我们可以在评论区里讨论然后到时候也邀请Force过来看一看跟大家这个互动一下好的那我们就到这祝大家这个也是新年快乐我们2026年可能CES这个 we will see our next five-t result. These days, thank you. Thank you. See you next time!