对话GMI Cloud:NVIDIA是七家认证合作伙伴之一,并不想成为一家租用算力的公司。

作者 |周亦晓邮箱 | zhouyixiao@pingwest.com 2025年,AI算力市场重心正在转移。 DeepSeek等开源模型的爆发清楚地表明,人工智能的主战场正在从昂贵的训练场景转向高频、碎片化的推理场景。现在,Alex Yeh 和他的 GMI Cloud 正处于微妙的境地。公司成立仅三年,正以前所未有的速度完成初期资本和产能的积累。 GMI Cloud于去年10月获得8200万美元A轮融资,并于今年上半年获得NVIDIA NCP(NVIDIA参考平台云合作伙伴)认证。目前全球仅有七家公司拥有此认证。这意味着您将在计算能力较低的市场上获得一流的独家产品和技术支持。上周,GMI Cloud 宣布将与 NVIDIA 合作构建人工智能中国台湾智能工厂和GMI Cloud将总共投资5亿美元。这个超级数据中心将部署基于GB300 NVL72架构的万卡集群。据官方独家消息,工厂一期算力已售出,二期已预留50%。这背后的原因在于当前算力市场的实际供需情况。尽管芯片产能不像两年前那么紧张,但可用的优质集群资源仍然稀缺。 Alex Yeh 将这种情况描述为复杂的压力。作为GMI Cloud的掌门人,必须在容量和需求之间走钢丝,同时还要警惕悬在云世界每一个GPU厂商头上的达摩克利斯之剑。当GPU最终成为像水、电、煤一样的商品时,初创企业如何避免成为大企业的影子运输渠道? Alex Yeh 不是典型的书呆子迪企业家。在创立GMI Cloud之前,他在私募股权和风险投资领域工作多年,曾是加密货币和区块链生态系统最年轻的合伙人之一。资本市场的训练让他习惯于破除技术泡沫,寻找资产的底层逻辑。他见证了区块链行业的兴衰。在他看来,这个市场上唯一不变的资产就是比特币,而获得它的方式只有两种:算力和能源。它没有炒作货币价格,而是专注于建设数据中心和部署电力。他现在正在人工智能领域重用这个逻辑。我不知道无论应用层如何演变,无论是编码还是视频生成模型最终获胜,唯一的决定性要求是计算能力。但它拒绝成为纯粹计算能力的出借者。在由 AW 等超大规模云厂商主导的市场“桌子”中S、Azure和Google Cloud,GMI Cloud正在探索一条“全链算力支撑,满足企业AI应用需求”的新路径。与大公司主要围绕 CPU 构建的典型云基础不同,GMI Cloud 选择了重资产模型。将购买底层裸机,使用 NVIDIA 的高端 GPU 实现自我维持,并在全球建立多个数据中心。 IaaS的中间层是Cluster Engine Platform,一个专有的集群调度引擎,上层提供InferenceEngine Platform,一个MaaS服务。同时,据直接消息显示,该公司还计划推出一款名为 GMI Studio 的工作流程产品,并计划在年底前开发出强化学习产品。这种从裸机到代币、应用层产品的全方位支撑能力,让我们在亚太和海外市场找到了生存空间,即使面对的是北美n 竞争对手,如 CoreWeave。 Alex羞于谈论这个行业的残酷,我不喜欢它。他认为,纯GPU租赁业务最终将面临盈利摊薄。在到达红海之前,他做了两件事来建立屏障。一是到2027年确保全球能源资源,因为能源将成为数据中心最严格的约束。另一个是构建一个软件生态系统,通过深度优化的模型提供推理服务和模型,这些模型比原生平台更快、更便宜。值得一提的是,在业内人士认为“电力”是影响生产力的主要因素之前,Alex就已经提前规划安装发电厂。 GMI Cloud是这次AI基础设施玩家重组的缩影,是AI云时代热门的创业公司。当热钱退去时,只有能解决供应链、能源和细节技术服务的企业才会留在谈判桌上。我们最近与GMI Cloud创始人Alex Yeh坐下来讨论他对算力市场的看法、公司的战略选择以及这项业务的性质。以下为谈话实录,经过编辑,未改变原意。我们不知道人工智能会出现什么应用,但我们确实知道计算能力将是巨大的。硅星:在创立GMI Cloud之前,您在人工智能和风险投资/PE投资方面拥有丰富的经验。是什么让您从“项目人”转向“项目人”并专注于人工智能基础设施? Alex:这实际上来自我在投资时使用的一种基本训练,称为“第一原理思维”。我习惯于问五个“为什么”并剥开层层表象,直到我在市场上找到一个永恒的真理。例如,如果我们忽略技术而关注养老,那么这个市场永恒的事实是人口正在老龄化,所有的医疗和护理需求都围绕着这个永恒的逻辑。在 t当时,我也以同样的方式看待区块链行业。在市场上找到 Alpha 后,我发现这辆卡车唯一不变的实际上是比特币。如果你想持续赚取比特币,底层逻辑就是“算力”和“能源”。因此,当时我并没有选择炒币,而是直接进入了最底层的“挖矿”——数据中心的建设和能源资源的调配。当前的人工智能职业范围从一般的法学硕士到心理治疗、数学研究、视频建模和编码等各种垂直职业,但它们之间的中心常数是什么?毕竟,它们都需要大量的计算能力。就像1995年互联网诞生时一样,没有人能预料到20年后Facebook、亚马逊和阿里巴巴会出现。同样,我们不知道未来会出现什么人工智能应用,但我们确实知道到处都会有对GPU处理能力的需求。因此e,与押注于特定的应用程序或工具(风险更大)相比,全力以赴使用 GPU 的所有计算能力对我来说是风险最小、最安全的选择。我们建立计算机实验室的经验,加上我们在区块链基础设施方面积累的力量资源,使我们能够相对较快地进入这个领域。 Silicon Star:与 AWS 和 Google Cloud 等云服务提供商(超大规模提供商)相比,GMI Cloud 的主要区别是什么?业内有声音认为,专业的AI云可以提高40%的效率。您见过类似的好处吗? Alex:我认为Hyperscalers和我们最大的区别主要体现在三个维度:位置、服务粒度、产品业态。首先,是位置。超大规模通常只服务于几个特定的​​核心区域。然而,在许多特定市场,例如东南亚,公有云覆盖实际上并不完整,往往需要c与东京计算机房或其他大型节点的连接。这可能会导致延迟和数据合规性方面的重大问题。 GMI Cloud 成立为一家全球性公司。我们在全球多个地区拥有多个节点,使我们能够更灵活地满足当地客户对数据驻留和低延迟的需求。第二是我们服务的深度。在这个行业中,除非您是财富 500 强公司或年度预算超过 2000 万美元,否则很难从超大规模企业获得专门的客户主管或技术支持。然而,人工智能训练需要TAM(技术客户经理)和SA(解决方案架构师)的密切支持,因为机器模型连接非常深,并且训练过程非常不稳定。 GMI Cloud提供这种类型的集中技术支持,帮助客户优化他们的代币和基础设施,这是一个重要的体感差距。最后是产品。大多数超大规模企业的基础都是基于CPU云,GPU只是其中的一部分。许多产品都是基于CPU架构的变化。 GMI Cloud 是人工智能原生的。我们不仅卖算力,我们还提供底层模型优化和内存优化。例如,对于 Llama 模型推理,我们的吞吐量和首词延迟可以比传统云提供商快 2 到 3 倍。视频生成模型的速度比某些官方 API 快 3 倍。这就是专注的好处。硅星:与CoreWeave、Lambda等类似模式的竞争对手相比,GMI Cloud在技术、服务和定价策略方面的主要优势是什么? Alex:CoreWeave 和 Lambda 都是非常受尊敬的朋友。 CoreWeave 主要关注培训和超大型团体。客户集中度非常高,其中微软和OpenAI占了很大一部分。然而,每秒计费和推断水平,例如全球多点部署(特别是在亚洲),我们目前参与较少。 Lambda的优势在于容器和租赁本身,但在模型层的适配方面却做得很少。 GMI Cloud 的策略是提供Vertical Stack 功能。除了提供训练的基础硬件外,还提供支持token加载的推理引擎。这就像同时出售“面粉”(计算能力)和“面包”(API)。无论客户需要基础培训还是创作者只需要调用 DeepSeek 或 Qwen API,我们都可以为您提供。此外,我们还投入了大量精力来优化我们的视频模型,并提供目前许多竞争产品尚未涵盖的与视频相关的垂直服务。这不仅仅是一个“外壳”,它是由 Silicon Star 的人员完成的较低级别的优化。推理引擎平台与许多公司都有类似的业务。您的主要附加值是什么?亚历克斯:事情是这样的。有两个主要区别。这是全球化的控制功能和底层硬件。据我了解,国内同类厂商的算力主要集中在中国。如果你在海外运行人工智能应用程序,你会遇到明显的延迟问题。 GMI Cloud在全球拥有节点,可以为国际客户解决地理问题。更重要的是,我们不是一个纯粹的无服务器API聚合器并且拥有我们自己的物理计算能力(我们自己的硬件)。当你租用阿里云或火山引擎时,通常会为你提供VM(虚拟机),这使得你很难进行低级的“大胆操作”。优化 GPU 集群的通信和推理效率。由于您拥有底层 GPU 卡,因此您可以控制底层和底层防火墙。只有控制硬件,才能降低成本,同时提高性能。因此,它可以比原生平台运行得更快、更便宜。硅星:NVIDIA 的参考平台 作为NVIDIA云合作伙伴,除了率先获得新卡之外,这一身份还带来哪些“无形”好处呢? Alex:这个认证当然不是拿到一张卡那么简单。我们每两周与 NVIDIA 在研发层面举行一次非常密切的更新会议(每两周一次的技术会议)。举个具体的例子,我们正在推动亚洲首个水冷万卡集群“GB300”的建设。打造这种级别的集群在行业内几乎是史无前例的,难度极大。 NVIDIA 团队将直接参与帮助您调整参数并开发实施。从机密计算到 Infiniband 网络级别的深入技术支持是我们处理这些超大型群体的能力的关键。此外,通过尽早访问有关 Rubin 等下一代架构的信息和演示,在技术规划方面取得领先地位。硅星:有专门的没有市场上的 n-NVIDIA AI 芯片 (ASIC)。 GMI Cloud的长期硬件战略会继续与NVIDIA紧密联系,还是会采用更多元化的计算能力? Alex:这是一个理性的、基于时间的考虑。目前,单纯适应NVIDIA的迭代和CUDA从H100到H200再到Blackwell的升级需要消耗大量的人力资源。此外,模型关卡疯狂重复,新模型不断出现,包括 DeepSeek、Qwen 和 Wan。简单地使模型适应 NVIDIA 架构是很复杂的。因此,短期内我们会重点加强NVIDIA的芯片资源。一旦达到一定规模,我们将成立独立团队来探索新的硬件生态系统。您将能够组建一个团队。 Silicon Star:GMI Cloud容器化服务与传统GPU租赁有何不同?这些PaaS/MaaS层服务给客户带来的最终商业价值是什么? Alex:使用传统的容器服务恶习,您只需在一段时间内租用一张卡即可。此外,我们的 MaaS 服务得到了全面优化。根据第三方平台比较,我们的 API 比其他提供商快 2.4 到 3 倍。这背后的技术包括 GPU 并行计算(并行性),它允许推送请求在多个节点上高效分发。行政任务。它还具有自动扩展和收缩(autoscaling)和内存访问优化的功能。为您的客户带来的最终价值是更快的速度和更低的成本。计算能力还不是商品。即使机器坏了,硅星也不会选择生命。在与欧洲AI音乐平台合作的案例中,我们提到了一个调音的“协作工作组”。随着客户群的增长,您将如何扩展这种定制能力? Alex:当前的详细模型主要关注关键客户。事实上,这是一个相互补充、共同发展的过程。生长。例如,客户可能正在使用 Qwen 和 DeepSeek 模型。他们擅长调Qwen,我们擅长调DeepSeek。所以我们决定做一个Share Repo(共享基础代码)来共享优化后的节点和加速体验,避免重复发明轮子。这种密切的合作使我们能够将 GPU 集群的稳定性调整到非常高的水平,通过降低故障率和检查点优化,将客户的训练速度提高 20%。虽然是高接触性的服务,但在协作过程中学到的技能,比如优化特定的视频模型等,都是积累起来的,可以帮助客户变得更加相似,标准化来提供服务。这本身就意味着我们正在完美地使用我们的产品。 Silicon Star:纯GPU租赁的利润将变得越来越薄。 GMI云打算如何通过构建自己的软件和服务生态系统来避免陷入低利润的“算力红海”? Alex:很多人认为比较使用电力最终将成为一种商品,但事实并非如此,至少现在还不是。在这个行业,客户可以购买GPU,但如果服务或网络稳定性差,客户将无法使用它。有些厂家的机器周末经常断网或者经常找不到人维护。不过机器坏了也没关系。因此,服务质量和集群稳定性本身就是很高的门槛。您的声誉越好,您获得的客户就越多。此外,尺寸也是一个障碍。如今,许多制造商可能会提供 8 或 16 张卡组,但很少有制造商能够提供单组 2,000 张卡甚至 10,000 张卡。随着车型变得越来越大,客户对大群体的需求也随之增加。这可谓是行业的一次重组,去其精华,去其精华。只有具备大规模交付和服务能力的供应商才能生存在红海。硅谷之星:从行业角度来看,购买自有在AI计算的电力采购格局中处于什么位置?它会变得司空见惯吗? Alex:它在更广泛的市场中不会常见,但在某些时候它将服务于相对成熟的客户。这类客户通常愿意签订三年以上的长期合同。他们估计,如果他们支付三年租金,资产的折旧将大致相同,并愿意占有该资产。这是针对特定高级需求的灵活服务。硅星:对比服务外企和国外AI公司,服务本土企业与服务本土企业相比,对技术、服务和全球化能力的要求有哪些? Alex:中国企业海外扩张通常有三个主要需求: 1. 成本可控的混合架构:在国际扩张的早期阶段,预算有限,必须有利可图。 2、用户体验:在日本、东南亚或北美上线时,需要本地节点保证低延迟。 3.中文服务和履行:我们可以提供中文服务,同时解决本地履行问题。硅星:目前哪些行业对其GPU云服务的需求最高?您能分享一两个最有趣的应用案例吗? Alex:当今最受欢迎的三个曲目是 AI Software Copilot、Image Video Generation 和 AI Companions。最有趣的案例之一是我们有制作视频的客户。他们的产品一经推出就立即受到欢迎,对计算能力的需求在一个月内增加了八倍。我们需要帮助您在极短的时间内完成从数百张卡到数千张卡的快速扩张。虽然这对我们的供应链和交付能力来说是一个重大挑战,但也为我们赢得了赢得了客户的巨大信任。这也带来了“甜蜜的负担”,卡经常用完,以及容量和需求之间不断的“拉锯”游戏。只致力于“海外扩张”和“本土化”的硅星人才:在亚洲市场(中国大陆、东南亚、东北亚等)的设计和竞争策略是什么?Alex:我们在不同市场的打法很明确,在中国大陆不会影响本地GPU业务,只会提供“海外服务”。我们支持中国企业在东南亚、日本和北美的扩张。外资企业在中国的成本管理主要有三个需求:可能的混合动力架构、低延迟用户(本地节点)以及中国服务和合规性,因为我们在特定的亚太地区有本地节点,所以我们解决了很多金融和IC设计公司在AWS/GCP上找不到本地算力的问题。在亚洲,我们收购了日本第二大、稳定的电力公司作为客户。我们在日本组建了团队,为国内外大客户提供从GPU到模型管理的全面服务。东南亚拥有丰富的机房合作伙伴资源,几乎可以即时帮助海外国内AI应用企业快速获取资源。硅谷之星:去年的A轮融资有哪些重大进展?基于这些结果,公司对于下一轮融资有何计划? Alex:A轮资金将主要用于获得NCP认证以及构建初始一套公里/万公里卡。今年的成果令人印象深刻。我们获得了NVIDIA核心认证,形成了万卡规模的计算能力,得到了投资者和客户的认可。 B轮融资预计价值2亿美元,预计今年年底完成。该资金将首先可能会被用来建设人工智能工厂,并将现有基层集群的规模扩大一倍或三倍,特别是在北美、日本和台湾。 Boulder、Pebbles、ShaSilicon:您认为未来两三年GPU云计算市场最大的机遇和挑战是什么? Alex:最大的挑战肯定是电力。实在是不够。当我们第一次寻找计算机实验室时,我们需要的只是 0.5 兆瓦 (0.5 MW)。现在开始寻找起价为40MW的计算机实验室。整个开发的规模非常恐怖。我们目前的计划不再是展望六个月,而是直接在2027年确保能源资源。这使得我们也可以顺应潮流,直接与超大规模企业和电力公司合作。未来的竞争将主要是能源竞争。硅星:您如何看待大规模开源与闭源模式的竞争?这对你有何影响?亚历克斯:我认为开放源头是整个行业的驱动力。例如,当今年 DeepSeek V3 推出时,市场反应非常热烈,以至于企业终于意识到他们可以以低成本控制自己的数据和模型。以前大家都觉得开源和闭源之间的差距非常大,但现在这个差距正在迅速缩小(Converge)。之前像Cursor这样的产品流行起来,成本太高,所以各大厂商很快就发布了Cloud Code来覆盖。但开源模式给了每个人反击的机会。我大胆预测《DeepSeek Moment》也将出现在视频轨道上。阿里巴巴的万2.5已经很强大了。未来,视频模型还将包含LLM等开源亮点。这对于我们这样的基础设施制造商来说是一个巨大的好处。硅星:最后一个问题:我们正在进入推理时代。在理想情况下,GMI Cloud 会扮演什么角色?亚历克斯:我们不想只是成为“因为这只会进一步缩小我们的视野。我们要打造一个垂直的AI服务平台,能够解决AI应用企业所有的技术和算力需求。有一个比喻叫“石头、卵石和沙子”。 Rock:类似于CoreWeave,提供非常大的集群,供大型模型公司进行训练。 Pebble – 通过K8s和容器来服务需要灵活性和中型算力的初创公司。 Sand:通过i引擎提供API服务而成人和开发者可以随时随地调用像DeepSeek、Qwen等模型一样的API服务,同时我们会为开发者和创作者打造更便捷的服务,比如工作流,我们的最终目标是连接所有三层,从最小的API调用到最大的万卡集群训练,提供一个完整的解决方案。
特别提示:以上内容(含图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。

admin

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注