Skip to content
AgiPhant 念象
EN
01 公司

AGI 时代的
腕上神经接口。

// WHY · 为什么
01

你的手本就够用。

每来一种新设备 —— 眼镜、XR 头显、机器人 —— 都在要求你学它的语言:手柄、对着摄像头比划、在公共场合说出口令。我们觉得这个方向反了。你的意图本来就在移动手指的神经里。念象在腕部直接读取它,延迟 20 毫秒以内,再把它递给任何在听的机器。

// HOW · 怎么做
02

肌电 + 视觉,彼此校准。

16 通道 sEMG 实时采集肌肉激活信号。需要时,一枚腕部内侧的小摄像头从手心角度看向指尖。两路信号互补:视觉被遮挡,肌电接着跑;肌电漂移,视觉拉回来。结果是真实生活场景下持续、精准的动作采集 —— 你正常生活,它就顺手把数据接住。

// WHO IT'S FOR · 服务谁
03

想用指尖打字的每一个人。

此刻最兴奋的是研究实验室和 XR 开发者,他们需要一个能自己搭建的开放信号。但同一只腕带、同一枚传感器,也服务于所有在公共场合不便看屏打字的人、隔着房间控制幻灯片的演讲者、以及希望可穿戴设备做的不止步数统计的用户。一个平台,服务很多只手。

// NEXT · 接下来
04

先交付开发者腕带,然后是其余的。

先到用户手上的硬件是独立的 Omniband —— 开发者、爱好者、早期用户。接下来是能夹在你现有手表上的表带。再之后是一只从神经信号开始设计的原生智能手表。每一步都保持诚实:尽可能开放的规格、公开的基准测试、真实的上手时间。

一起造它。

面向开发者、B 端集成、科研合作 —— 我们都在做。说声嗨。

yi.wang@agiphant.com →