科技·商业·财经

企业AI新征程:修炼“内功” 迈向“会执行”的智能新境界

   时间:2026-03-18 21:55 作者:苏婉清

在人工智能领域,大模型的发展曾一度聚焦于“招式”的惊艳——能看、能写、能答,仿佛无所不能。然而,当AI真正迈向规模化落地阶段,一个现实问题逐渐浮现:仅靠“反应迅速”远远不够,能否在复杂任务中保持状态、串联知识、形成长期记忆,成为决定AI能否从“工具”升级为“助手”的关键。这场变革,正推动企业AI的竞争从“拼招式”转向“拼内功”。

华为数据存储领域总裁谢黎明在近期的一场发布会上指出,企业AI的核心资产正在从“数据”向“知识与记忆”转型。过去,企业数字化建设的核心是“存、管、用”数据;如今,随着智能体深入业务系统,AI需面对的已非简单的“对话”场景,而是三道更现实的挑战:知识生成效率低、检索不精准;推理成本高、速度慢;缺乏长期记忆能力,复杂任务难以闭环。这些问题,正成为制约AI落地的“隐形门槛”。

以知识管理为例,企业内部数据往往分散在文档、表格、日志等不同系统中,格式各异且历史包袱沉重。传统方法抽取知识效率低下,检索结果常“似是而非”,导致AI虽能回答问题,却未真正理解业务逻辑。而在推理场景中,GPU显存的昂贵与有限,叠加缓存命中率、数据调度效率等因素,使得企业常面临“算力够但等不起”的困境——模型能计算,业务却因延迟而无法承受。更棘手的是,智能体在跨步骤、跨系统任务中极易“失忆”,记不住用户偏好或前置决策,最终沦为“高级聊天机器人”。

针对这些痛点,华为在发布会上推出了面向AI推理时代的AI数据平台(AIDP),试图为“中心推理”场景提供系统性解决方案。谢黎明将其定义为“整合知识库、KV Cache库、记忆库与统一缓存管理(UCM)的架构,直击三大挑战”。从技术架构看,AIDP采用“3+1”模式:知识库负责知识生成与高质量检索;KV Cache库优化推理速度与成本;记忆库支持长期记忆与复杂任务;UCM则统筹不同存储介质间的数据流转,确保高效协同。

这一平台的核心价值,在于推动企业AI从“演示级”迈向“生产级”。例如,在知识管理层面,AIDP重构了知识抽取、向量化、索引与检索的全链路,支持多模态数据,使知识生成效率提升2倍,检索准确率超95%。在推理优化层面,通过将KV Cache从GPU显存解耦至高性能存储介质,并结合UCM的冷热分层调度,首Token时延降低90%,推理吞吐提升2倍,显著缓解了GPU成本压力。而在记忆能力层面,记忆库的引入让智能体能够记录用户偏好、延续任务状态,并在长期互动中沉淀经验,真正从“会说话”进化为“能做事”。

值得注意的是,AIDP并未采取“推倒重来”的激进策略,而是支持两种部署模式:既可将知识库、记忆库与KV Cache能力一体化整合至OceanStor A800中,也可在现有OceanStor Dorado存储上通过外置节点独立部署。这种“平滑升级”的设计,既保护了企业既有投资,又降低了技术迁移风险,更贴合企业级应用的决策逻辑——可控、可持续的演进路径,往往比“性能翻倍”的承诺更具吸引力。

从更宏观的视角看,AIDP的推出标志着企业存储角色的转变。过去,存储的核心指标是容量、性能与可靠性;如今,华为开始强调“知识、缓存、记忆”等新关键词。这并非营销话术的更新,而是基础设施定位的升级:在AI时代,存储不仅是数据的“仓库”,更需成为模型的“神经系统”——高效组织知识、承接缓存、管理记忆,支撑智能体持续运行。正如谢黎明所言:“AI推理时代,存储平台的价值不在于‘喂数据’,而在于‘养记忆’。”

当AI从“会生成”迈向“会执行”,企业需要的不仅是更快的存储,而是更懂AI逻辑的数据底座。华为的探索,或许为行业提供了一个新思路:在模型能力日益趋同的今天,谁能补上“长期记忆”与“稳定推理”的内功,谁就更有可能在智能体竞争中占据先机。

 
 
更多>同类内容
全站最新
热门内容