To accelerate the world's transition to human-machine symbiosis.

超越传统压力阵列,实现从"压力点"到"高维图像"的飞跃
打破前两代方案仅感应法向压力的局限。系统可实现三维全矢量场测量,精准解耦法向压力与切向摩擦力,捕捉微观应力分布。
基于视触觉图像原理,超越人类指尖极限的空间分辨率。将触觉从稀疏点升级为包含拓扑信息的微观视触图像。
通过捕捉微米级滑移前兆,实现类人灵巧操控。在同等轻薄的基础上输出高维信号,原生适配多模态大模型端到端学习。
突破传统力传感器仅作阈值报警的局限。模型在接触瞬间即可原生解析高维拓扑形变,精准推断目标物体的材质、软硬度、表面粗糙度及重心分布,赋予机器人真正的物理直觉。
高度还原人类手眼协同机制。模型输出的触觉表征可直接无缝接入主流视觉大模型编码器,视觉引导全局轨迹与触觉微观校验在同一特征空间内完成对齐,在面对未知异形件时依然能涌现出准确的自适应响应。
依托海量涵盖工业精细插拔、柔性织物抓取等真实场景的高优视触动对齐数据进行深度预训练。庞大的物理世界交互数据喂养,彻底打破单一任务局限,实现了跨材质、跨形态的卓越泛化能力。









多模态触觉数据与感知硬件已投入国内头部机器人实验室及高校研究。
硬件阵列与触觉模型 API 正在接入主流灵巧手及具身本体产品。