科技·商业·财经

群核科技空间大模型新突破:SpatialGen助力AI视频生成,破解时空难题

   时间:2025-08-27 02:32 作者:苏婉清

群核科技在近日举办的首届技术开放日上,震撼发布了其空间大模型的最新研究成果——SpatialLM 1.5空间语言模型与SpatialGen空间生成模型,并向与会者透露了新模型的开源计划。作为业内首个专注于3D室内场景理解与生成的模型体系,群核空间大模型在提供真实感全息漫游、结构化可交互体验及处理复杂室内场景方面展现出卓越能力。

除了开源模型,群核科技还首次公开了AI团队基于SpatialGen探索的AI视频生成解决方案,该方案旨在通过创新范式解决AI视频制作中的时空一致性难题。

SpatialLM 1.5,这款基于大语言模型训练的空间语言模型,允许用户通过对话交互系统SpatialLM-Chat,实现从文本到可交互场景的端到端生成。相较于传统大语言模型对物理世界空间关系的理解局限,SpatialLM 1.5不仅能解析文本指令,还能输出包含空间结构、物体关联及物理参数的“空间语言”。用户只需输入简单文本描述,该模型即可自动生成结构化场景脚本,智能匹配家具模型并完成布局,且支持后续的自然语言问答或编辑。更为关键的是,SpatialLM 1.5生成的场景富含物理正确的结构化信息,并能快速批量产出多样化的符合要求的场景,这些场景可用于机器人路径规划、避障训练及任务执行等多个领域,有效解决机器人训练数据稀缺的问题。现场演示中,群核科技首席科学家周子寒展示了机器人在养老场景中的应用,当输入“去客厅餐桌拿药”的指令后,模型不仅识别了相关物体,还自动规划出最优行动路径,展现了机器人在复杂家庭环境中执行任务的巨大潜力。

而SpatialGen则专注于“生成与呈现”,它是一款基于扩散模型架构的多视角图像生成模型。通过文字描述、参考图像及3D空间布局,SpatialGen能生成具有时空一致性的多视角图像,并进一步生成3D高斯场景,渲染出可自由漫游的视频。依托群核科技海量的室内3D场景数据与多视角扩散模型技术,SpatialGen生成的多视角图像能确保同一物体在不同视角下保持准确的空间属性和物理关系。用户可以在生成的3D高斯场景和真实感全息漫游视频中自由穿梭,获得沉浸式的体验。

群核科技AI产品总监龙天泽提到,尽管当前的AIGC文生视频与图生视频工具已经推动了视频创作的潮流,但由于时空一致性问题的制约,距离真正的商业化应用还有一定距离。群核科技正在研发一款基于3D技术的AI视频生成产品,并计划年内正式发布,这或将成为全球首款深度融合3D能力的AI视频生成工具。通过构建3D渲染与视频增强一体化的生成管线,有望显著弥补当前AIGC视频生成中的时空一致性不足问题。

群核科技联合创始人兼董事长黄晓煌在活动现场分享了公司在空间智能布局上的最新思考。基于全球最大的空间设计平台酷家乐,群核科技构建了“空间编辑工具-空间合成数据-空间大模型”的空间智能飞轮,通过工具沉淀数据,用数据加速模型训练,用模型提升工具体验,从而在工具的广泛应用中沉淀更为丰富的场景数据。截至2025年6月30日,群核科技已拥有超过4.41亿个3D模型及超过5亿个结构化3D空间场景。

黄晓煌表示,开源是公司战略的重要关键词之一。自2018年起,群核科技就启动了开源战略,逐步开放数据与算法能力。他认为,当前空间大模型还处于初级阶段,希望通过开源推动全球空间智能技术的快速发展,成为全球领先的空间智能服务提供商。

据悉,本次技术开放日分享的两款模型将逐步在HuggingFace、GitHub等平台面向全球开发者开源。其中,空间生成模型SpatialGen已在技术开放日当天开放下载使用,而空间语言模型SpatialLM 1.5也将以“SpatialLM-Chat”的形式完成开源。

 
 
更多>同类内容
全站最新
热门内容