水晶球APP 高手云集的股票社区
下载、打开
X

推荐关注更多

柴孝伟

买进就值,越来越值,时享价...


邢星

邢 星 党员,国...


石建军

笔名:石天方。中国第一代投...


揭幕者

名博


洪榕

原上海大智慧执行总裁


小黎飞刀

黎仕禹,名博


启明

私募基金经理,职业投资人


李大霄

前券商首席经济学家


桂浩明

申万证券研究所首席分析师


宋清辉

著名经济学家宋清辉官方账号...


banner

banner

润建股份是KIMI最正宗的算力股,未来增量预期打满

龙与虎   / 03月24日 10:41 发布

今天KIMI的阿里专家电话会议我直接说总结

KIMI之前算力用的是火山引擎的算力阿里投了以后KIMI后面扩容算力和B端接入的算力大部分都将使用阿里云算力这也是阿里投月之暗面的条件内容KIMI前几天宕机已经向阿里求助算力支持未来KIMI的大部分算力都将由阿里云提供

鸿博的周总也证实未来都将使用阿里云算力




周三我写的一篇KIMI算力逻辑纠正一下未来接入KIMI企业的算力由阿里云提供


火山引擎算力润泽科技亚康股份  


阿里云算力润建股份  


以下是KIMI电话会议算力部分语音转文字原文,重点文字加粗标记了


发言人 1 00:01

大家好欢迎参加本次华服 AI 互联网重磅专家解读机密电话会议目前所有参会者均处于静音

状态下面有请主持人发言谢谢

发言人 2 00:11

各位好晚上好我是华服 AI 互联网传媒首席杨晓峰很高兴大家参加今天晚上的专家解读 kimi我们看到今天下午 kimi 因为流量过高又再一次宕机了所以我们今天有幸请到专家为我们分享一下kimi 目前的核心技术是什么以及说从 kimi 的这个投资方的角度他是怎么样去支持他的一个资金和算力的然后也请专家再帮我们分享一下就是对未来 kimi 的增长是怎么样一个预期专家要不您先帮忙简单分享一下这个 kimi 的核心技术在哪里为什么它的模型最后给我们的效果还比较不错

发言人 3 10:21

在整个的这个模型能力KIMI的话它已经进入国内的前三甚至前二然后全球的话它已经在前六左右排名那么在很多的打榜的他都会比较靠前所以天天在现在已经进入一线的这个模型这个能力了这是他这个背后的一些技术然后另外他在算力训练这一块的话其实他们这个模型早期还是基于传送的架构做的基于传送的叉 L 这个模型架构一路迭代他们最早已经在 2022 年的第四季度就开始在自己训练拿到一些数据在做训练了在到这个时候因为他们来自清华对吧然后清华的话会有给他们的算力支持他们早期的一些训练都是依托于母校提供一些算力资源然后去年他们拿到天使轮融资早期的融资以后是在这个火山引擎上做一些训练然后目前他们的一些业务还是部署在火山引擎上面的火山那边的比较多然后现在我们又阿里投资了他投资了他的话会未来会对他进行一个资源包括这个算力的资源算力的话我们会有一个资源池未来KIMI的话可以在这个资源池里面去申请他的算力用来做训练推理都可以去可以使用的所以未来在投资以后跟他一个是算力上有个支点

发言人 3 11:43

同时的话在整个的业务协同上面也会有活动kimi 的话他未来突破会把这些模型部署到云阿里云再通过 mac 的方式输出给很多低端客户他目前其实已经把 API 放出来了他有 8K30 是 128K的版本已经在 B 端开始启动了那往后走的话它 PV 的话它其实是啊要笃定走 C 端因此他在未来一段时间会把 TV 智能助手这个产品继续打磨来把用户量拉升起来

发言人 3 12:14

他们认为接下来的话依托于自家的模型能力再加上自己在 C 端的这种产品设计能力因为他们从从微从从腾讯美团找一些优优秀的产品经理加入这些产品经理的话会去把他们打磨这个 C 端产品所以他们是把这个 C 端产品做一个发力的重点在这个重点打造

发言人 3 12:36

C 端我们现在看到的是它的一个智能助手在小程序 web APPIOS 都有啊现在的话基本上到 3月份的话已经已经有三百多万的用户量了然后他的 web 端的增长也非常快就陡增的一个态势特别到 3 月中旬的时候到这段时间阶段是每天几十万的用户涌进来今天我们看到他在 web 端AP 端小程序端都有这个 loading 不够的状态就是因为最近的用户量爆发的非常快所以他这段时间的话他在拿到融资以后在很多地方在投广告在 B 站在小红书在都能看到的广告所以最近的用户增长会非常大所以它的整个的算力到了一个瓶颈

发言人 3 13:18

接下来的话KIMI在也在向我们阿里求援算力他会去把他的一些算力业务开始部署有些在火山上还是有可能引擎上还是有些会挪到这个阿里云上面去均衡它整个的算力的部署所以接下来就是他在这个算力上会面临一个要扩容的一个状态整个的这个推理算力所以说它的用户量的增长会一个陡增的需求会拉升起来所以这里的话就作为我们今年第一季度看到的一个潜在的有可能成为超级 APP 的一个态势随着它为了迭代它会把更多玩法叠加进来现在我们看这文本长文档这些基础功能接下来的话它会去依托于他们自己在多模态上的技术的积累未来会把一些新的玩法叠加到它的这个端上所以今年会看到这个 APP 它未来的发展的态势会非常猛以上就是对 kimi 的一个基本情况的一个小结主持人

发言人 2 18:57

好的第二块你能帮我们分享一下目前 kimi 跟股东方的关系会不会就是跟 open ai 跟微软的关系是怎么样的定位的比如说就像您说的之前他们使用的算力是这个火山引擎的目前从您了解的情况来看未来是不是大部分都是阿里云或者说从目前他的用户量这么大的情况下他是不是还有钱去买国三引擎的算力还是说我们股东方给他的这个云计算的规模其实比现在他使用的规模会大几个量级这个您帮我分享一下可以

发言人 3 20:03

好的首先股东方的角度就是说 kimi 他不会像 open a 一样跟微软那么的深度绑定投资方的话还是会给 kimi 一定的自由度让他的业务自由的发展不会去太干涉Kimi 的话他有自己的规划的思路和和这个 roadmap那么这一块的话是完全自由的没有太多的这个那短期来看这个投资方还是以财务投资的角度为主然后从业务协同的角度来说投资方是这么考虑首投资方有自研模型对吧还有自己的多过的文本的图片的音频等等多个模型但是我们会一定要夯实我们在模型层的一个矩阵也就是说自研的模型不可能有某个方面都是 number one都是第一对吧所以在市面上那些给我们能力比较接近的模型甚至比我们超我们的模型我们都要去把它的融邀请进来因此在未来我们业务层的底座模型里面会把拉进来作为我们的底座模型

发言人 3 21:32

第二块就是在整个的云阿里云我们在整个的 to b 这一块我们就会把第三方的模组邀请进来放在我们的云上有我们的云输出给我们很多的 B 端的客户相当于就是有点像 hugging face 和这个 AWS google 这样的关系就是我们给他引流他也可以把用户引过来最终由我们的云来服务你们 B 端的客户但是好处就是听力他不需要去再重做一个超大的来去服务他 B 端的客户依托我们现有的这些资源云计算的资源KIMI 把这个模型部署到我们云上我们提供强大的 mac 的平台这样的话它成为我们基础模型的一个选项很多客户 to b 的客户自然就跑到我们的云上来去购买他的这些服务调他的 API买他的 token这样的话未来我们会通过分层的方式给到 kimikimi 从这一块会收到一些收益所以从这个角度来说我们会从业务层面上会去跟他从内部赋能的角度从云的角度一起来做协同这也是我们怎么去投他一个比较好的一个战略的思考

发言人 2 22:46

好的然后刚刚您也提到说最近 kimi 相对而言一直在宕机您刚才也提到他向咱们阿里的这个叫股东云求助想问一下您大概了解到咱们在投资的时候大概给了一个什么量级的算力券呢以及说就目前来看会不会有很大一部分到咱们这边来呢这个问题你怎么看呢

发言人 3 23:10

或者说对其实 kimi 在谈的时候也是把这个算力支持来做一个谈判那个筹码和条件因此在我们去年 12 11 月份开始其实就把这个训练的算力全部回收对吧我们已经不对外出租了

发言人 3 23:28

这个背后的原因有几点第一就是美国对中国禁售了第二就是我们自己的这个信用算力加上我们的内部训练以及我们的这个投资的伙伴目标的这创业公司他们都有算的需求因此我们在把云上的算的全部下架以后会分一些给他们我们现在是有一个大概四千多片的GPU会去给到创业公司做训练用给他们的这个代金券会有代金券然后有数据千万的代金券是吧作为他们未来去直接可以付他就不需要付现金了直接用代金券就扣在云上可以选可以选一些时令 GPU 的配置等等开放给他们他们去用那块来消耗他的专利所以未来他自己在训练测的这块的开销包括推测的开销都可以用这种方式来去 cover 的成本这块其实跟 open I 和微软之间有点像

发言人 3 24:24

欧派早期在创业的时候或者他刚上线那段时间的时候其实也是通过阿祖微软给到他很多的刷机支持也是类似这种方式来去给他一些从投资角度用投资的用这个优惠券方式算力券的方式来来反哺他这个算的需求就是这一块我们会提供给他那未来的话接下来的话他的算力遇到瓶颈那么我们那边也会迅速的因为在今天晚上会明天就会快速恢复其实就是缺一部分在那边同步部署一些云然后他自己做路由有一些会两边会均衡就是在负载均衡这一块会路由到有些到火山有些到我们那边来帮他去平衡这些业务量增长的爆发的这样的需求所以在这个瓶颈短期这个瓶颈会迅速被会会被解决掉对

发言人 3 26:44

第二的话就是在业务上还是要给他支持就是我们本身的推理算力在在云上还是够的就是对支撑给你这种百万级千万级 level 的推理我们还是够用的我们做什么压力测试同时我们自己也在补很多算力我们的这个英伟达的 H20国内的芯片等等我们都在适配所以在为算力这块支持的话我们会全力的去 support kimi因为 kimi 的话未来它是有计划自己够一些机型但是还没这么快未来采购完以后他会托管在去机房里面给他专属的用所以短期内我们会指引他说你长期看它会慢慢会构建自己的算力来作为他的一部分的业务支撑但大头还是在云上我们会去给他一些支持真像这样的

来自:预期与概率