今天KIMI的阿里专家电话会议,我直接说总结:
KIMI之前算力用的是火山引擎的算力,阿里投了以后,KIMI后面扩容算力和B端接入的算力大部分都将使用阿里云算力(这也是阿里投月之暗面的条件内容),KIMI前几天宕机已经向阿里求助算力支持,未来KIMI的大部分算力都将由阿里云提供。
鸿博的周总也证实未来都将使用阿里云算力。
周三我写的一篇KIMI算力逻辑,纠正一下:未来接入KIMI企业的算力由阿里云提供。
火山引擎算力:润泽科技、亚康股份
阿里云算力:润建股份
以下是KIMI电话会议算力部分语音转文字原文,重点文字加粗标记了
发言人 1 00:01
大家好,欢迎参加本次华服 AI 互联网重磅专家解读机密电话会议。目前所有参会者均处于静音
状态,下面有请主持人发言,谢谢。
发言人 2 00:11
各位好,晚上好,我是华服 AI 互联网传媒首席杨晓峰,很高兴大家参加今天晚上的专家解读 kimi。我们看到今天下午 kimi 因为流量过高又再一次宕机了。所以我们今天有幸请到专家为我们分享一下,kimi 目前的核心技术是什么,以及说从 kimi 的这个投资方的角度,他是怎么样去支持他的一个资金和算力的。然后也请专家再帮我们分享一下,就是对未来 kimi 的增长是怎么样一个预期。专家要不您先帮忙简单分享一下,这个 kimi 的核心技术在哪里?为什么它的模型最后给我们的效果还比较不错?
发言人 3 10:21
在整个的这个模型能力,KIMI的话它已经进入国内的前三甚至前二,然后全球的话它已经在前六左右排名。那么在很多的打榜的他都会比较靠前,所以天天在现在已经进入一线的这个模型这个能力了,这是他这个背后的一些技术。然后另外他在算力训练这一块的话,其实他们这个模型早期还是基于传送的架构做的。基于传送的叉 L 这个模型架构一路迭代,他们最早已经在 2022 年的第四季度就开始在自己训练,拿到一些数据在做训练了。在到这个时候,因为他们来自清华,对吧?然后清华的话会有给他们的算力支持,他们早期的一些训练都是依托于母校提供一些算力资源,然后去年他们拿到天使轮融资,早期的融资以后是在这个火山引擎上做一些训练。然后目前他们的一些业务还是部署在火山引擎上面的,火山那边的比较多,然后现在我们又(阿里)投资了他,投资了他的话,会未来会对他进行一个资源,包括这个算力的资源。算力的话我们会有一个资源池,未来KIMI的话可以在这个资源池里面去申请他的算力,用来做训练,推理,都可以去可以使用的。所以未来在投资以后,跟他一个是算力上有个支点。
发言人 3 11:43
同时的话在整个的业务协同上面也会有活动,kimi 的话他未来突破会把这些模型部署到云(阿里云)上,再通过 mac 的方式输出给很多低端客户。他目前其实已经把 API 放出来了,他有 8K30 是 128K的版本,已经在 B 端开始启动了。那往后走的话,它 PV 的话,它其实是啊要笃定走 C 端。因此他在未来一段时间会把 TV 智能助手这个产品继续打磨,来把用户量拉升起来。
发言人 3 12:14
他们认为接下来的话,依托于自家的模型能力,再加上自己在 C 端的这种产品设计能力,因为他们从、从微从从腾讯、从美团找一些优优秀的产品经理加入。这些产品经理的话,会去把他们打磨这个 C 端产品。所以他们是把这个 C 端产品做一个发力的重点,在这个重点打造。
发言人 3 12:36
C 端我们现在看到的是它的一个智能助手,在小程序 web APPIOS 都有啊。现在的话基本上到 3月份的话,已经已经有三百多万的用户量了。然后他的 web 端的增长也非常快,就陡增的一个态势,特别到 3 月中旬的时候,到这段时间阶段是每天几十万的用户涌进来。今天我们看到他在 web 端,AP 端、小程序端都有这个 loading 不够的状态,就是因为最近的用户量爆发的非常快,所以他这段时间的话,他在拿到融资以后,在很多地方在投广告,在 B 站在小红书,在都能看到的广告。所以最近的用户增长会非常大,所以它的整个的算力到了一个瓶颈。
发言人 3 13:18
接下来的话,KIMI在也在向我们(阿里)求援(算力),他会去把他的一些(算力)业务开始部署。有些在火山上还是有可能,引擎上还是有些会挪到这个阿里云上面去均衡它整个的算力的部署。所以接下来就是他在这个算力上会面临一个要扩容的一个状态,整个的这个推理算力,所以说它的用户量的增长会一个陡增的需求会拉升起来。所以这里的话就作为我们今年第一季度看到的一个潜在的有可能成为超级 APP 的一个态势。随着它为了迭代,它会把更多玩法叠加进来。现在我们看这文本长文档这些基础功能。接下来的话它会去依托于他们自己在多模态上的技术的积累,未来会把一些新的玩法叠加到它的这个端上。所以今年会看到这个 APP 它未来的发展的态势会非常猛。以上就是对 kimi 的一个基本情况的一个小结。主持人。
发言人 2 18:57
好的,第二块你能帮我们分享一下,目前 kimi 跟股东方的关系,会不会就是跟 open ai 跟微软的关系是怎么样的定位的?比如说就像您说的。之前他们使用的算力是这个火山引擎的。目前从您了解的情况来看,未来是不是大部分都是阿里云,或者说从目前他的用户量这么大的情况下,他是不是还有钱去买国三引擎的算力?还是说我们股东方给他的这个云计算的规模,其实比现在他使用的规模会大几个量级。这个您帮我分享一下,可以。
发言人 3 20:03
好的,首先股东方的角度,就是说 kimi 他不会像 open a 一样跟微软那么的深度绑定投资方的话还是会给 kimi 一定的自由度,让他的业务自由的发展,不会去太干涉。Kimi 的话他有自己的规划的思路和和这个 roadmap,那么这一块的话是完全自由的,没有太多的这个。那短期来看这个投资方还是以财务投资的角度为主,然后从业务协同的角度来说,投资方是这么考虑。首投资方有自研模型对吧?还有自己的多过的文本的图片的音频等等多个模型。但是我们会一定要夯实我们在模型层的一个矩阵,也就是说自研的模型不可能有某个方面都是 number one,都是第一,对吧?所以在市面上那些给我们能力比较接近的模型,甚至比我们超我们的模型,我们都要去把它的融邀请进来。因此在未来我们业务层的底座模型里面会把拉进来作为我们的底座模型。
发言人 3 21:32
第二块就是在整个的云(阿里云)上,我们在整个的 to b 这一块,我们就会把第三方的模组邀请进来,放在我们的云上。有我们的云输出给我们很多的 B 端的客户,相当于就是有点像 hugging face 和这个 AWS google 这样的关系。就是我们给他引流,他也可以把用户引过来,最终由我们的云来服务你们 B 端的客户。但是好处就是听力他不需要去再重做一个超大的来去服务他 B 端的客户。依托我们现有的这些资源,云计算的资源,KIMI 把这个模型部署到我们云上,我们提供强大的 mac 的平台,这样的话它成为我们基础模型的一个选项。很多客户 to b 的客户自然就跑到我们的云上来去购买他的这些服务,调他的 API,买他的 token。这样的话未来我们会通过分层的方式给到 kimi,kimi 从这一块会收到一些收益。所以从这个角度来说,我们会从业务层面上会去跟他从内部赋能的角度,从云的角度一起来做协同。这也是我们怎么去投他一个比较好的一个战略的思考。
发言人 2 22:46
好的,然后刚刚您也提到说,最近 kimi 相对而言一直在宕机。您刚才也提到他向咱们阿里的这个叫股东云求助。想问一下您大概了解到咱们在投资的时候,大概给了一个什么量级的算力券呢?以及说就目前来看,会不会有很大一部分到咱们这边来呢?这个问题你怎么看呢?
发言人 3 23:10
或者说对,其实 kimi 在谈的时候也是把这个算力支持来做一个谈判那个筹码和条件。因此在我们去年 12 11 月份开始,其实就把这个训练的算力全部回收,对吧?我们已经不对外出租了。
发言人 3 23:28
这个背后的原因有几点,第一就是美国对中国禁售了。第二就是我们自己的这个信用算力,加上我们的内部训练,以及我们的这个投资的伙伴,目标的这创业公司,他们都有算的需求。因此我们在把云上的算的全部下架以后,会分一些给他们。我们现在是有一个大概四千多片的GPU,会去给到创业公司做训练用。给他们的这个代金券,会有代金券,然后有数据千万的代金券是吧?作为他们未来去直接可以付,他就不需要付现金了,直接用代金券就扣在云上。可以选,可以选一些时令 GPU 的配置等等,开放给他们,他们去用那块来消耗他的专利。所以未来他自己在训练测的这块的开销,包括推测的开销,都可以用这种方式来去 cover 的成本,这块其实跟 open I 和微软之间有点像。
发言人 3 24:24
欧派早期在创业的时候,或者他刚上线那段时间的时候,其实也是通过阿祖微软给到他很多的刷机支持,也是类似这种方式来去给他一些从投资角度,用投资的用这个优惠券方式,算力券的方式来来反哺他这个算的需求。对,就是这一块我们会提供给他。那未来的话接下来的话他的算力遇到瓶颈,那么我们那边也会迅速的,因为在今天晚上会明天就会快速恢复。其实就是缺一部分在那边同步部署一些云,然后他自己做路由,有一些会两边会均衡,就是在负载均衡这一块会路由到有些到火山,有些到我们那边来帮他去平衡这些业务量增长的爆发的这样的需求。所以在这个瓶颈,短期这个瓶颈会迅速被会会被解决掉对。
发言人 3 26:44
第二的话就是在业务上还是要给他支持,就是我们本身的推理算力在在云上还是够的。就是对支撑给你这种百万级千万级 level 的推理,我们还是够用的。我们做什么压力测试,同时我们自己也在补很多算力,我们的这个英伟达的 H20,国内的芯片等等,我们都在适配。所以在为算力这块支持的话,我们会全力的去 support kimi。对,因为 kimi 的话未来它是有计划自己够一些机型,但是还没这么快。未来采购完以后,他会托管在去机房里面给他专属的用。所以短期内我们会指引他说,你长期看它会慢慢会构建自己的算力,来作为他的一部分的业务支撑。但大头还是在云上,我们会去给他一些支持,真像这样的。