水晶球APP 高手云集的股票社区
下载、打开
X

推荐关注更多

股道的卢

06年入市实战操作至今,经...


价值领航

稳健的投资风格和淘金精神


柴孝伟

建造十九层每层成倍财富高楼...


邢星

邢 星 党员,国...


石建军

笔名:石天方。中国第一代投...


揭幕者

名博


洪榕

原上海大智慧执行总裁


小黎飞刀

黎仕禹,名博


启明

私募基金经理,职业投资人


李大霄

前券商首席经济学家


banner

banner

【国盛通信】博通和Ciena财报说明了什么?

A股计划   / 06月09日 09:04 发布

摘要

【博通:网络的重要性】


事件:博通发布FY25 Q2季报(截至2025年4月),实现营收150亿美元,同比增长20%,公司合并毛利率为79%,业绩增长主要得益于AI业务的增长和VMware的并表整合。从产品结构来看,半导体解决方案营收84亿美元,同比增长17%(其中AI 业务44 亿美元,同比增长46%);基础设施软件营收66亿美元,同比增长25%。公司指引FY25   Q3营收158亿美元,其中AI业务51亿美元。


我们认为,在AI大模型驱动的算力经济中,网络不再是配角,而是AI系统性能释放的前提,建议重视AI发展中网络的重要性:


(1)网络:AI算力体系的“新瓶颈”


大模型要求系统内部具备极致的低延迟、高带宽和可扩展性,系统瓶颈由此重构,过去的瓶颈在“单芯片算力”,现在及未来的瓶颈在“节点互联”。博通作为数据中心网络芯片龙头,在此次财报中多次强调其Tomahawk、Jericho等交换芯片的出货与客户设计周期同步推进,网络产品囊括北美发大部分AI超大规模训练部署计划。我们认为这体现了产业链的技术演化选择,AI日趋模块化、分布式,GPU/TPU之间的互联延迟成为性能提升的瓶颈,高性能网络成为第一性优化变量。


(2)网络的“不可替代性”:AI Capex结构的再分配


市场在解读AI基础设施Capex时,习惯性聚焦于GPU,实际整体建设成本中,网络所占比例逐步拉升。以Meta为例,其部署的一个24K中网络设施占比已超过在计算上花费的三分之一以上。我们认为,未来在更高性能需求下,为了避免GPU闲置等待通信的空转时间,客户可能需要同步部署相匹配的交换机组网方案,整个AI供应链都依赖“GPU+网络+电力”三位一体的优化协同,网络是AI系统性能释放的前提。


(3)延伸讨论:关于ASIC和以太网


近期市场对ASIC关注度较高,如微软的MAIA、谷歌的TPU、亚马逊的Trainium,以及Meta、OpenAI等潜在客户都在探索用自研ASIC替代现成GPU,ASIC主要优势在于可以进一步压缩芯片成本、同时降低功耗、优化推理效率等,博通也在财报中提及,已有三个大客户计划部署百万级XPU加速器。


我们认为,ASIC 带来的 AI 成本优化是长期趋势,而非短期兑现的业绩引擎,目前大多数AI工作负载仍由NV GPU完成(比如CoreWeave与OpenAI签署近120亿美元GPU合同;Blackwell支持FP8大模型推理等)。抛开ASIC与GPU的竞争,网络作为其连接基座,是所有架构路径下都不可绕开的共性投入项,换言之,以太网才是确定性更强的增长方向,重视未来网络通信方向。


【Ciena:国产替代的展望】


事件:Ciena发布FY25 Q2财报,实现营收11.3亿美元,同比增长24%;GAAP净利润900万美元,去年同期为亏损1680万美元,Ciena的增长主要受益于AI和云计算基础设施需求增加带来的高速连接解决方案需求增加。此外,值得关注的是,公司FY25 Q2毛利率为41%,较去年同期的43.5%有所下滑,主要受可插拔光学模块强劲需求的影响,带来部分成本压力。


我们认为,考虑到地缘政治压力及美国本土替代的推进节奏有限,Ciena或许当前更依赖日本或欧美厂商供货,导致产品综合BOM成本走高,进一步压缩毛利空间,若未来中美供应链环境稳定回暖,或者客户对成本敏感性上升,重回以国内企业为代表的供应链体系,将是Ciena提升毛利率的有效路径之一;未来在AI基建相关高速通信器件需求持续扩大的背景下,国内零部件厂商具备中长期持续渗透全球高端客户的能力。


综上,我们认为海外算力复苏趋势已经较为显著,坚定推荐算力产业链相关企业如光模块行业龙头中际旭创、新易盛等,光器件“一大四小”天孚通信+仕佳光子/太辰光/博创科技/德科立,同时受关税影响跌幅较大,但具有新增量逻辑的公司如威腾电气(母线)等。


算力——

光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。铜链接:沃尔核材、精达股份。算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪、海光信息。液冷:英维克、申菱环境、高澜股份。边缘算力承载平台:美格智能、广和通、移远通信。卫星通信:中国卫通、中国卫星、震有科技、海格通信。IDC:润泽科技、光环新网、奥飞数据、科华数据、润建股份。

数据要素——

运营商:中国电信、中国移动、中国联通。数据可视化:浩瀚深度、恒为科技、中新赛克。


风险提示:AI发展不及预期,算力需求不及预期,市场竞争风险。


图片


图片

1.    投资策略:博通和Ciena财报说明了什么?

本周:


算力——

光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。

铜链接:沃尔核材、精达股份。

算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪。

液冷:英维克、申菱环境、高澜股份。

边缘算力承载平台:美格智能、广和通、移远通信。

卫星通信:中国卫通、中国卫星、震有科技、华力创通、电科芯片、海格通信。

IDC:润泽科技、光环新网、奥飞数据、科华数据、润建股份。


数据要素——

运营商:中国电信、中国移动、中国联通。

数据可视化:浩瀚深度、恒为科技、中新赛克。


本周观点变化:


本周受益于海外厂商释放技术升级信号,算力板块整体走强。6月4日博通宣布正式交付其新一代支持1.6T端口的Tomahawk 6交换芯片,催化光膜块由800G向1.6T转化。Tomahawk 6的发布增强了市场对光模块景气度的预期,太辰光、剑桥科技、联特科技、新易盛本周分别上涨30.31%、23.66%、14.57%、12.98%。本周受特斯拉首席执行官马斯克与美国总统特朗普矛盾公开化影响,引发市场避险情绪,特斯拉股价下跌14.81%。

 

我们认为海外算力复苏趋势已经较为显著,坚定推荐算力产业链相关企业如光模块行业龙头中际旭创、新易盛等,光器件“一大四小”天孚通信+仕佳光子/太辰光/博创科技/德科立,同时受关税影响跌幅较大,但具有新增量逻辑的公司如威腾电气(母线)等。

2. 行情回顾:通信板块上涨,光通信指数表现最优

本周(2025年6月3日-2025年6月6日)上证综指收于3385.36点。各行情指标从好到坏依次为:创业板综>中小板综>万得全A>万得全A(除金融,石油石化)>上证综指>沪深300。通信板块上涨,表现优于上证综指。


图片


从细分行业指数看,光通信、云计算、量子通信分别上涨8.9%、4.82%、4.79%,表现优于通信行业平均水平;移动互联、区块链、通信设备、物联网、运营商分别上涨3.4%、2.9%、2.6%、2.3%、1.6%,表现劣于通信行业平均水平;卫星通信导航下跌0.5%。


本周摘帽利好驱动,中嘉博创上涨33%,领涨版块。受益于虚拟电厂概念,恒实科技上涨28%;受益于数字通信概念,二六三上涨24%;受益于稳定币概念,御银股份上涨24%;受益于稳定币概念,恒宝股份上涨24%。


图片

3.周专题:博通和Ciena财报说明了什么?

【博通:网络的重要性】


事件:博通发布FY25 Q2季报(截至2025年4月),实现营收150亿美元,同比增长20%,公司合并毛利率为79%,业绩增长主要得益于AI业务的增长和VMware的并表整合。从产品结构来看,半导体解决方案营收84亿美元,同比增长17%(其中AI 业务44 亿美元,同比增长46%);基础设施软件营收66亿美元,同比增长25%。公司指引FY25   Q3营收158亿美元,其中AI业务51亿美元。


我们认为,在AI大模型驱动的算力经济中,网络不再是配角,而是AI系统性能释放的前提,建议重视AI发展中网络的重要性:


(1)网络:AI算力体系的“新瓶颈”


大模型要求系统内部具备极致的低延迟、高带宽和可扩展性,系统瓶颈由此重构,过去的瓶颈在“单芯片算力”,现在及未来的瓶颈在“节点互联”。博通作为数据中心网络芯片龙头,在此次财报中多次强调其Tomahawk、Jericho等交换芯片的出货与客户设计周期同步推进,网络产品囊括北美发大部分AI超大规模训练部署计划。我们认为这体现了产业链的技术演化选择,AI日趋模块化、分布式,GPU/TPU之间的互联延迟成为性能提升的瓶颈,高性能网络成为第一性优化变量。


(2)网络的“不可替代性”:AI Capex结构的再分配


市场在解读AI基础设施Capex时,习惯性聚焦于GPU,实际整体建设成本中,网络所占比例逐步拉升。以Meta为例,其部署的一个24K中网络设施占比已超过在计算上花费的三分之一以上。我们认为,未来在更高性能需求下,为了避免GPU闲置等待通信的空转时间,客户可能需要同步部署相匹配的交换机组网方案,整个AI供应链都依赖“GPU+网络+电力”三位一体的优化协同,网络是AI系统性能释放的前提。


(3)延伸讨论:关于ASIC和以太网


近期市场对ASIC关注度较高,如微软的MAIA、谷歌的TPU、亚马逊的Trainium,以及Meta、OpenAI等潜在客户都在探索用自研ASIC替代现成GPU,ASIC主要优势在于可以进一步压缩芯片成本、同时降低功耗、优化推理效率等,博通也在财报中提及,已有三个大客户计划部署百万级XPU加速器。


我们认为,ASIC 带来的 AI 成本优化是长期趋势,而非短期兑现的业绩引擎,目前大多数AI工作负载仍由NV GPU完成(比如CoreWeave与OpenAI签署近120亿美元GPU合同;Blackwell支持FP8大模型推理等)。抛开ASIC与GPU的竞争,网络作为其连接基座,是所有架构路径下都不可绕开的共性投入项,换言之,以太网才是确定性更强的增长方向,重视未来网络通信方向。


图片
图片


图片


【Ciena:国产替代的展望】


事件:Ciena发布FY25 Q2财报,实现营收11.3亿美元,同比增长24%;GAAP净利润900万美元,去年同期为亏损1680万美元,Ciena的增长主要受益于AI和云计算基础设施需求增加带来的高速连接解决方案需求增加。此外,值得关注的是,公司FY25 Q2毛利率为41%,较去年同期的43.5%有所下滑,主要受可插拔光学模块强劲需求的影响,带来部分成本压力。


我们认为,考虑到地缘政治压力及美国本土替代的推进节奏有限,Ciena或许当前更依赖日本或欧美厂商供货,导致产品综合BOM成本走高,进一步压缩毛利空间,若未来中美供应链环境稳定回暖,或者客户对成本敏感性上升,重回以国内企业为代表的供应链体系,将是Ciena提升毛利率的有效路径之一;未来在AI基建相关高速通信器件需求持续扩大的背景下,国内零部件厂商具备中长期持续渗透全球高端客户的能力。


综上,我们认为海外算力复苏趋势已经较为显著,坚定推荐算力产业链相关企业如光模块行业龙头中际旭创、新易盛等,光器件“一大四小”天孚通信+仕佳光子/太辰光/博创科技/德科立,同时受关税影响跌幅较大,但具有新增量逻辑的公司如威腾电气(母线)等。

4. 智源发布“悟界”系列大模型 模型全球总下载量超6.4亿次

据C114报道,2025年6月6日,第七届“北京智源大会”在中关村展示中心开幕。


北京智源大会是智源研究院主办的“AI内行学术盛会”,以“全球视野、思想碰撞、前沿引领”为特色,汇聚海内外研究者分享研究成果、探寻前沿知识、交流实践经验。2025北京智源大会邀请到了图灵奖得主、深度学习代表人物Yoshua Bengio,图灵奖得主、强化学习之父Richard S. Sutton,图灵奖得主Joseph Sifakis、姚期智,Google、DeepMind、Meta、Mila、Physical Intelligence、MIT、斯坦福、UC Berkeley、Linux基金会等国际明星机构与技术团队代表,华为、百度、字节跳动、腾讯、阿里等互联网大厂以及智谱、宇树科技、生数科技、面壁等30余位AI公司创始人、CEO,同时,大会还汇聚了100余位全球青年科学家、200余位人工智能顶尖学者和产业专家,围绕多模态、深度推理、下一代AI路径、Agent智能体、具身智能、AI4S、AI产业、AI安全、AI开源展开精彩演讲和前瞻性对话。


智源研究院院长王仲远做2025研究进展报告,发布智源研究院在大模型前沿技术路径的探索成果和开源生态建设的最新动态。


在2025北京智源大会上,继“悟道”系列大模型之后,智源研究院推出“悟界”系列大模型,其中,“悟道”的“道”代表智源对大语言模型系统化方法和路径的探索,“悟界”的“界”代表虚实世界边界的不断突破。“悟界”系列大模型承载的是智源对人工智能从数字世界迈向物理世界的技术趋势的判断。


“悟界”大模型系列,包括原生多模态世界模型Emu3、脑科学多模态通用基础模型见微Brainμ、跨本体具身大小脑协作框架RoboOS 2.0与具身大脑RoboBrain 2.0以及全原子微观生命模型OpenComplex2。


Emu3作为原生多模态统一架构让大模型具备理解和推理世界的能力,Brainμ基于Emu3架构,引入脑信号这一新的模态数据,实现了单一模型完成多种神经科学任务的大一统。多模态与脑科学模型未来可成为人机交互具身场景下的基础模型。


RoboOS 2.0与RoboBrain 2.0在初代版本基础上,原有性能大幅提升,并新增多机协作规划与物理常识驱动的空间推理能力。OpenComplex2可在原子分辨率层面捕捉分子相互作用及平衡构象,探索微观构象波动与宏观生物功能的跨尺度关联。


从微观生命体到具身智能体,'悟界'系列大模型试图揭示生命机理本质规律,构建人工智能与物理世界交互基座。


智源作为非营利科研机构,一直坚持开源开放的原则,智源打造的覆盖模型、算法、数据、评测、系统的大模型开源技术体系FlagOpen,截至目前,已开源约200个模型和160个数据集,其中,模型全球总下载量超6.4亿次,开源数据集下载量近113万次,开源项目代码下载量超140万次,为人工智能技术普惠与开源社区繁荣做出持续贡献。


其中,开源、统一的 AI 系统软件栈 FlagOS进一步升级,新增统一编译器FlagTree、统一通信库FlagCX、自动发版平台工具FlagRelease等重要板块,全面覆盖统一生态技术需求;实现对11家国内外厂商的18款异构AI硬件的统一支持;FlagGems的算子平均性能已优于国际主流算子,并行训推框架FlagScale与人工优化相比,实现了最高23%的自动并行加速。升级后的FlagOS已支持DeepSeek、通义千问等更多开源大模型实现跨硬件平台运行,为开发者提供更多选择,推动 AI 技术的普及和多元发展。


此外在大会圆桌论坛环节,智源研究院王仲远与Physical Intelligence联合创始人兼CEO Karol Hausman,宇树科技创始人王兴兴,银河通用创始人兼CTO、北京大学助理教授、智源具身智能研究中心主任王鹤,穹彻智能联合创始人、上海交通大学教授卢策吾,北京人形机器人创新中心总经理熊友军,就具身智能的不同技术路线、商业化路径探索、典型应用场景拓展、产业生态构建等议题展开深度探讨。

5. “AI 编程”商战启动:Windsurf 称 Anthropic 限制其直接访问 Claude 模型

据C114报道,Anthropic 已大幅削减其平台对 Claude 3.7 Sonnet 和 Claude 3.5 Sonnet 模型的访问权限。


Windsurf CEO Varun Mohan 周二在 X 上发文称,Anthropic 在几乎没有预先通知的情况下就做出调整,公司不得不临时寻找其他第三方算力供应商,以继续支持平台上的 Claude 模型服务。


Mohan 表示,Windsurf 一直希望能支付费用以维持完整的访问权限,对方的突然决定和通知时间之短令人失望。


该公司在博客中提到,目前虽有部分第三方算力资源,但远不能满足需求,短期内可能影响用户访问 Claude 模型的稳定性。


就在数周前,Anthropic 发布了全新 Claude 4 模型系列,但 Windsurf 并未获得使用权限。该公司表示发布当日就未能接入 Claude 4,至今仍只能依赖一项更复杂、更昂贵的替代方案。


近年来,AI 编程领域迅速升温。今年 4 月,OpenAI 据称已完成对 Windsurf 的收购交易。与此同时,Anthropic 也在积极投入自研编程应用,今年 2 月推出了 Claude Code,并在 5 月举办首次开发者大会。


Anthropic 发言人 Steve Mnich 表示,公司正在优先保障与能长期合作的开发伙伴的资源调配,目前 Windsurf 用户仍可通过 API 密钥接入 Claude 4。他还补充,开发者也可通过官方 API、合作伙伴平台或其他工具使用 Claude 模型。


Windsurf 今年发展迅速,四月年营收已突破 1 亿美元,不过无法直接接入 Claude 模型可能正在拖累其发展。


目前,Windsurf 提供了一项临时方案,让用户可绑定自己的 Anthropic API 密钥使用 Claude 4。但开发者指出,这种“自带密钥”的方式不仅复杂,费用也更高。


在这个领域中,支持多种模型已成为标配。OpenAI、谷歌和 Anthropic 几乎每隔几个月就会推出一代新模型,对编程任务表现领先。对 vibe 编程工具而言,能兼容更多模型,才有竞争力。


Windsurf 发言人 Payal Patel 表示,公司一直坚持给用户更多选择,但这一次,Anthropic 的做法却让这条路变得更难走。

6.OpenAI 最强模型 GPT-5 即将面世:性能跃升,对抗 Gemini 2.5 Pro 和 Claude 4 的杀手锏


据C114报道,在墨西哥举办的 AI Summit 峰会上,OpenAI宣布正在开发下一代基础模型 GPT-5,并计划通过该模型与 Gemini 2.5 Pro、Claude 4 等竞争对手展开更激烈角逐。


援引博文介绍,两位 OpenAI 代表明确表示,GPT-5 即将面世,且性能将远超 GPT-4 等现有模型。他们坦言,目前尚不清楚开发成本,但暗示价格可能不低。其中一位代表强调:“我们希望通过 GPT-5 在竞争中占据更多优势”。


关于 GPT-5 的发布时间,OpenAI 初步定于今年夏天,7 月是目前的目标。然而,公司也表示计划可能随时调整。如果 GPT-5 未能达到内部设定的性能目标,发布可能会延迟。OpenAI 强调,公司团队不会盲目赶进度,将优先确保模型质量。

7. 微软开源发布 Athena 智能体:AI 重塑 Teams 工作流,代码 PR 审查最高提速 58%

据C114报道,微软公司6 月 4 日发布博文宣布 Teams 应用已整合名为 Athena 的 AI 智能体,目的是优化产品开发流程,相关源代码已开源托管在 GitHub 平台上,供组织和个人定制使用。


援引博文介绍,微软在 Build 2025开发者大会上,曾向开发者公开展示 Athena。用户无需切换多个应用,Athena 能智能判断下一步工作内容,协助团队成员直接在 Teams 内完成任务。


Athena 能处理代码审查(Pull Request Reviews)、工作项管理和安全检等繁琐重复的任务,让开发者专注于创新和功能开发。


对于产品经理和工程领导,Athena 提供实时项目状态更新,帮助判断产品是否准备好发布,确保团队目标一致。无论企业规模大小,Athena 的开源特性都能满足特定需求,加速交付周期并提升代码质量。


微软表示这款工具解放了开发者的双手,让他们有更多精力开发新功能,同时缩短交付时间,减少用户遇到的潜在问题。

8.Hugging Face 称其开源机器人模型 SmolVLA 效率极高,能在苹果 MacBook 上运行

据C114报道,人工智能开发平台 Hugging Face 发布了一款名为 SmolVLA 的开源机器人 AI 模型。据 Hugging Face 称,SmolVLA 在虚拟和现实环境中均优于许多规模更大的机器人模型。


Hugging Face 在其博客文章中表示:“SmolVLA 致力于普及视觉 - 语言 - 行动(VLA)模型的使用,并加速通用机器人智能体的研究进程。”SmolVLA 不仅是一个轻量级但功能强大的模型,更是一种用于训练和评估通用机器人技术的方法。


SmolVLA 是 Hugging Face 迅速拓展的低成本机器人软硬件生态系统的一部分。去年,该公司推出了 LeRobot,这是一套专注于机器人的模型、数据集和工具。近期,Hugging Face 收购了总部位于法国的机器人初创公司 Pollen Robotics,并推出了一系列可供购买的廉价机器人系统,包括人形机器人。


SmolVLA 拥有 4.5 亿个参数,这些参数有时也被称为“权重”,是模型内部决定其行为的组件。该模型是基于 Hugging Face AI 开发平台上共享的 LeRobot 社区数据集(专门标记的机器人数据集)进行训练的。Hugging Face 表示,SmolVLA 的规模小到可以在单个消费级 GPU 上运行,甚至可以在 MacBook 上运行,并且可以在包括该公司自身机器人系统在内的“经济实惠”的硬件上进行测试和部署。


有趣的是,SmolVLA 还支持“异步推理堆栈”,Hugging Face 称这一功能可以使模型将机器人行动的处理与视觉和听觉的处理分离。正如该公司在博客中解释的那样:“由于这种分离,机器人能够在快速变化的环境中更快地做出响应。”


SmolVLA 已可在 Hugging Face 官方网站上下载。已经有用户在社交平台 X 上声称,他们利用该模型控制了第三方机械臂。

9. 亚马逊加码 AI 基建,宣布在美国北卡罗来纳州投资约 100 亿美元

据C114报道,亚马逊当地时间本月 4 日宣布计划在美国北卡罗来纳州投资约 100 亿美元,扩展其位于当地的数据中心基础设施以支持 AI 和云计算技术。


亚马逊表示此次投资预计将创造至少 500 个新的高技能工作岗位(包括数据中心工程师、网络专家、工程运营经理、安全专家等),同时在 AWS 数据中心供应链中带来数千个其它工作岗位。


亚马逊同时承诺为北卡罗来纳州社区提供一系列支持教育、技能培训计划、奖学金,并设立了一份 15 万美元的里士满县社区基金。


北卡罗来纳州州长 Josh Stein 表示:


AI 正在改变我们工作和创新的方式,我很高兴北卡罗来纳州将继续吸引像亚马逊这样的顶级科技公司。亚马逊的投资是本州历史上最大的投资之一,将为里士满县带来数百个高薪工作岗位和经济发展。

10. 阿里开源 Qwen3 新模型 Embedding 及 Reranker,带来强大多语言、跨语言支持

据C114报道,阿里开源了 Qwen3-Embedding 系列模型(Embedding 及 Reranker),专为文本表征、检索与排序任务设计,基于 Qwen3 基础模型进行训练。


官方表示,在多项基准测试中,Qwen3-Embedding 系列在文本表征和排序任务中展现了卓越的性能。


其具备如下特点:


卓越的泛化性:Qwen3-Embedding 系列在多个下游任务评估中达到行业领先水平。其中,8B 参数规模的 Embedding 模型在 MTEB 多语言 Leaderboard 榜单中位列第一(截至 2025 年 6 月 6 日,得分 70.58),性能超越众多商业 API 服务。此外,该系列的排序模型在各类文本检索场景中表现出色,显著提升了搜索结果的相关性。


灵活的模型架构:Qwen3-Embedding 系列提供从 0.6B 到 8B 参数规模的 3 种模型配置,以满足不同场景下的性能与效率需求。开发者可以灵活组合表征与排序模块,实现功能扩展。


此外,模型支持以下定制化特性:


表征维度自定义:允许用户根据实际需求调整表征维度,有效降低应用成本;


指令适配优化:支持用户自定义指令模板,以提升特定任务、语言或场景下的性能表现。


全面的多语言支持:Qwen3-Embedding 系列支持超过 100 种语言,涵盖主流自然语言及多种编程语言。该系列模型具备强大的多语言、跨语言及代码检索能力,能够有效应对多语言场景下的数据处理需求。


据介绍,Embedding 模型接收单段文本作为输入,取模型最后一层「EOS」标记对应的隐藏状态向量,作为输入文本的语义表示;Reranker 模型则接收文本对(例如用户查询与候选文档)作为输入,利用单塔结构计算并输出两个文本的相关性得分。

11.Claude Explains 首秀:AI 撰写专业技术博客,探索人机内容协作新模式

报道C114报道,Anthropic 公司悄然上线 Claude Explains 博客项目,其博客内容主要由 Claude 家族模型生成,聚焦技术主题。


援引博文介绍,该博客页面内容主要由 Claude 系列 AI 模型生成,涵盖与 Claude 应用相关的技术主题,例如“Simplify complex codebases with Claude”(用 Claude 简化复杂代码库)。这一举措旨在展示 Claude 的写作能力,同时探索 AI 在内容创作中的潜力。据 Anthropic 发言人透露,“Claude Explains”的内容并非单纯的 AI 输出,而是经过公司“主题专家和编辑团队”的严格把关。他们会对 Claude 的初稿进行“增强”,加入洞察、实用案例和背景知识。


发言人强调:“这不是单纯的 Claude 输出,编辑过程需要人类专业知识,并经过多轮迭代。”这种人机协作模式被视为 AI 辅助工作的早期范例,旨在提升内容价值,而非取代人类专家。Anthropic 计划未来扩展博客主题,涵盖创意写作、数据分析到商业策略等多个领域。