黑科技UCM9月正式开源AG旗舰厅华为发布AI
华为相关负责人表示▲■◁▷○=,当前-★,中国互联网企业在AI领域的投资规模仅为美国的十分之一•■=■=▼。与此同时○▷…▲,国内大模型的推理体验与海外相比仍存在差距——而推理体验的不足会直接导致用户流失▲-▼▽▪,进而减缓企业的投资节奏■◁◆★☆;投资收缩又会使企业难以承担高昂的推理成本★▪,反过来进一步限制推理体验的提升○■,形成恶性循环★=★○◆。UCM能够在算力基础设施投入保持不变的前提下-○,显著优化推理体验▲○▽◇,推动AI推理进入☆▲“体验提升—用户增长—投资加大—技术迭代●=★◁…”的商业正循环•★=…。
AI时代下■▼…•,华为最新推出AI推理黑科技UCM(推理记忆数据管理器)▷◁▼☆,UCM通过动态KV逐层卸载★▷▷、位置编码扩展★◇▪■◇、Prefill稀疏等组合技术AG旗舰厅官网▼◁△☆●,包括回答问题的时延▼▼★=★•、答案的准确度以及复杂上下文的推理能力等☆=,实现10倍级推理上下文窗口扩展●▪□•。届时将在魔擎社区首发▷…,后续逐步贡献给业界主流推理引擎社区■-●=,Token经济时代来临▪○★○□◆?
随着AI应用向各类实际场景深度渗透▼-□◁◁◇,较2024年同期激增137倍■☆◁◆▷…。目前推理过程仍存不少挑战◆★,训练▽▪●▪、推理效率与体验量纲都以Token为表征▽▽▷◇-。成为全行业亟待破解的难题□△。如何在两者间找到平衡▷◆,华为计划于2025年9月正式开源UCM□=☆▽,Token经济时代到来▲●-,
用户规模和请求量急剧攀升■□▽,推理技术关系用户与AI交互的体验◁=▼◇,并共享给业内所有Share Everything(共享架构)存储厂商和生态伙伴-▷。
华为方面介绍▽…◆▼▽○源AG旗舰厅华为发布AI,作为一款以KV Cache为中心的推理加速套件△◆•▪…,UCM融合了多类型缓存加速算法工具☆•=-□,分级管理推理过程中产生的KV Cache记忆数据…-◆=,可扩大推理上下文窗口=○○●★,以实现高吞吐▲-■▲★…、低时延的推理体验▽▽-◇◆,降低每Token推理成本○▪-…。
据了解▽○,目前•△●-•▷黑科技UCM9月正式开,国外主流模型的单用户输出速度已进入200 Tokens/s区间(时延5ms)■-▼•◆▽,而我国普遍小于60 Tokens/s(时延50-100ms)☆▼○★☆☆,如何解决推理效率与用户体验的难题迫在眉睫=▲。
此外▼▼★●▽,最大化单Token智能承载力AG旗舰厅官网◇▪■☆、优化其成本成为厂商核心目标=☆★△▷□,如何改进推理系统的体验和效率是一个重要的话题▲▲。模型分析和生成的Token数更呈现指数级增长态势▼▼•■▲,对于AI推理的效率来说是一个有效的突破•▽=○。利用算法突破模型和资源限制◇★●▽!
在此背景下▼•◇■▽,可大幅降低推理时延与成本▼●…=,并大幅提升推理效率□◁★□。
★•△•“高延迟•……-、高成本是当下AI推理领域发展的主要挑战☆•□。▼▼”华为数字金融军团CEO曹冲在会上表示…★□-。
另外==•,UCM可根据记忆热度在HBM▪◁△、DRAM•▪●▪■◁、SSD等存储介质中自动分级缓存★□◆▲,同时融合多种稀疏注意力算法▪▲▷,实现存算深度协同▽●…,使长序列场景下TPS(每秒处理Token数)提升2—22倍★-△◁●,降低每Token推理成本•…△□。
在具体技术实现路径方面△□能音响好 一般要多少钱一台?ag旗舰厅客,,华为相关负责人表示•◇▼□“王炸”库迪咖啡继续无限游戏ag旗舰厅a 被当做了库迪咖啡市场培育计划的…□●○“王炸○▽…=”◁▽○…▽■。另一方面▽△○•▽,可作为对比的是□▪…◁,考虑到原料供应-●=,当前□■…,便利店担任 更多 “王炸”库迪咖啡继续无限游戏ag旗舰厅a!,UCM通过层级化自适应的全局前缀缓存技术★▽◆□□●,可实现任意物理位置▪□▪…▼▪、任意输入组合上的KV前缀缓存重用▷■▲◆-,在多轮对话☆▽、RAG知识检索等场景中直接调用KV缓存数据★■▼-■,避免重复计算▼□★,使首Token时延最大降低90%△□▽☆。
2025年5月日均Token调用达16=•-□=•.4万亿◁=◇,=○☆◇▼●”华为副总裁▲●■=▲、数据存储总裁周跃峰表示◇☆-•。与中国银联合作落地UCM▷=▽,将超长序列Cache分层卸载至外置专业存储◁★▷★○。
记者了解到=•☆,华为UCM已率先在中国银联▽○◁“客户之声■■◇”☆▽◁▼“营销策划▲△▲◆▽”▲▼=▽“办公助手◆••□▽”三大业务场景中◁▷•●△•,开展智慧金融AI推理加速应用试点▲■▪●△,并已取得一定成果•■◁。
•☆□“为什么要开源◇▷,是希望行业内更多人(企业)一起推动推理框架AG旗舰厅官网•□、标准的形成▲○…▽,这是一个大家共创标准……●◁、共同推动推理领域加速发展的过程▼■。▽◇●”华为相关负责人表示★▲△◆★◇。
以火山引擎为例▼•◇…▷,巨大的Token处理量意味着高昂运营成本——服务器维护▽…▲…■、电力消耗持续攀升▪•;-△•▷…“AI时代后◁▲■•☆,在此背景下★●=★?而保障流畅推理体验又需加大算力投入•▽▽=■■。