机器姬公司推出针对科研和教育市场的家用具身智能机器人研发平台

▍机器姬公司发展时间轴:

  • 2023年12月27日

由专注于具身智能领域的行业知名技术专家和科学家刘智勇领衔,机器姬项目在北京五道口正式成立。

  • 2024年2月25日

机器姬公司推出的文生行动(TEXT TO MOTION)推理智能体,展示了该具身智能体(Agent)在长周期任务规划以及移动、抓取等基础元操作方面的能力。

  • 2024年3月2日

机器姬公司首先推出面向科研和教育市场可销售的家用机器人本体,填补了国内具身智能领域家用类型机器人的空白。随即开始了产品的公开销售。

▍机器姬项目的成立与发展,填补家用机器人研发平台的空白

机器姬项目的成立和发展,这标志着中国具身智能领域的一个重要发展阶段。由具身智能方向技术专家和科学家刘智勇领衔的团队不仅成功推出了具有长周期任务规划能力和基础操作能力的文生行动推理智能体。同时,他们还针对科研和教育市场推出了家用机器人本体科研平台,旨在为高校和研究机构提供一个开放的研发平台,以促进具身智能领域的科学研究和教学。这显著填补了国内在该领域的空白,并为机器姬公司未来的发展奠定了坚实的基础。

▍市场策略与产品规划,首先面向高等教育和科研机构的具身智能研究

机器姬公司采用了清晰的分阶段市场策略:首阶段,推出面向高等教育和科研机构的机器人科研平台,满足具身智能机器人在科研领域的需求;第二阶段是针对生活时间较少或工作时间较多的年轻人家庭推出的全屋清洁机器人产品,提升家庭生活品质;第三阶段是面向每个家庭的家务机器人产品,使具身智能机器人成为家庭生活中不可或缺的一部分。该策略不仅反映了机器姬公司对市场需求的深入洞察,也开拓了具身智能技术在日常生活应用中的新视野。

机器姬公司推出针对科研和教育市场的家用具身智能机器人研发平台

机器姬家用机器人研发平台本体

▍硬件设计,六轴多功能机械臂、夹爪和圆形底盘的标准方案

在硬件方面,作为领先的具身智能家用机器人研发平台,机器姬·毕玲采用了高度集成化设计,包括先进的传感器系统、多功能机械臂以及灵活的移动底盘,具备适应家庭环境的原地专向能力和机动活动能力,确保有效促进家用机器人技术的开发与创新。六轴多功能机械臂配合高精度的机械夹爪,使机器人能够执行精细的抓取和搬运任务。同时,先进的传感器系统,如英特尔RGB-D视觉传感器和单线激光雷达,为机器人提供了丰富的环境信息,确保其在复杂环境中的安全和高效导航。

▍软件平台,视觉语言模型、移动导航和抓取技术的基础集成

在软件方面,机器姬公司推出的家用具身智能机器人研发平台,旨在为科研和教育界提供一个高效、便捷的实验和开发工具。为了加速科研创意的快速实现并避免在项目开发中的重复劳动,针对具身感知、具身规划和具身规划的常用基础模块,该平台预先集成了以下几个关键功能:

首先,该平台整合了最先进的开源视觉语言模型,包括OpenAI的CLIP(Contrastive Language–Image Pre-training)和CogVLM。CLIP通过预训练一个大规模的图像和文本对来理解图像内容。CLIP的一个关键优势是它对新任务表现出了令人印象深刻的零样本(zero-shot)能力。CogVLM是一个先进的中国的开源视觉语言模型(VLM),它旨在桥接预训练语言模型和图像编码器之间的差距,通过整合视觉和语言信息来提升模型对跨模态内容的理解能力。在家用机器人具身推理系统中,通过视觉语言模型结合视觉(图像)和语言(文本)信息来理解和生成内容。这些模型能够执行多种任务,如图像标注、视觉问答等。

机器姬公司推出针对科研和教育市场的家用具身智能机器人研发平台

机器姬家用机器人研发平台在家场景

其次,集成了移动导航的基础元操作能力,如GMapping框架,能够通过激光雷达数据生成精确的二维环境地图,提高机器人在复杂环境中的定位和导航能力。它能够处理来自激光雷达(LIDAR)等传感器的距离测量数据,根据这些数据和机器人的移动信息来构建详细的环境地图。同时,集成启发式建图框架RTAB-Map,RTAB-Map(Real-Time Appearance-Based Mapping)是一个专为长期、大范围环境下的实时定位和地图构建(SLAM)设计的开源库。

再者,集成抓取的基础元操作能力,包括经典的GGCNN(Generative Grasping Convolutional Neural Network,生成式抓取卷积神经网络),GGCNN是一种轻量级的卷积神经网络,能预测相应的抓取角度和宽度,为机械臂提供了执行抓取所需的全部信息。同时,集成基于强化学习(Reinforcement Learning, RL)的在Omniverse模拟器中的预训练流程和机器人本地处理器上的部署流程,能够使机械臂通过与环境的交互学习如何完成复杂的抓取任务。

通过集成CLIP和CogVLM视觉语言模型,机器姬的平台能够理解并处理图像和文本信息之间的复杂关系,使机器人在没有明确指令的情况下也能自主完成任务。此外,GMapping和RTAB-Map框架使机器人能够在不熟悉的环境中进行精确的自我定位和导航,而GGCNN和基于强化学习的抓取技术则赋予了机器人灵活而准确的物体操作能力。机器姬的家用具身智能机器人研发平台已经内嵌了具身智能机器人的基础学习框架。

机器姬公司推出针对科研和教育市场的家用具身智能机器人研发平台

机器姬家用机器人文生行动推理智能体问世

▍结语与未来

通过这种面向高校和科研机构的机器人研发平台,机器姬公司不仅填补了国内具身智能领域家用类型机器人的空白,也为具身智能在学术领域的发展和应用奠定了坚实的基础。

相关新闻

联系我们
联系我们
公众号
公众号
在线咨询
分享本页
返回顶部