我试戴了Meta AI带屏眼镜:第一次觉得AI眼镜有戏了
来源:36kr 10 小时前

哇,整个这个眼镜戴上去的感觉太科幻了!

这是我戴上 Meta Ray-Ban Display 的第一反应。说实话,从看到去年 Meta Orion 样机的表现之后,我的期待值原本没有特别高,但真的把 Display 戴在头上,我突然觉得这个行业有戏。

在 Meta Connect 2025 发布会上,这副售价 799 美元的「带屏智能眼镜」终于揭开面纱。它是 Meta 首款支持显示功能的智能眼镜,通过右眼的彩色光波导 HUD 和配套的 Neural Band 腕带,把「脸上的 AI」从概念变成了现实。

与 Orion 样机类似,Display 采用的显示技术是彩色光波导,这种仅依靠光线在载体内反复折射、将画面反射到镜片中间的技术是目前 AI 眼镜最主流的显示方式。但 Meta 实现了一项很特殊的指标:低至 2% 左右的漏光率。

也就是说 HUD 点亮时,你对面的人完全看不到光波导的反射和漏光,不像是今年早些时候谷歌推出的 XR 眼镜样机那样会有一个明显的反射区域:

@梦雅Myra 佩戴的 Display,在类似的角度不会出现明显的屏幕漏光

即使我的朋友站在对面,在屏幕完全点亮时也完全察觉不到。只有从侧面角度,才能看到几排光波导屏幕导线的反光。

只不过,根据外媒 TheVerge 的上手体验,Meta 这块过于透明的屏幕也有一些弊端:由于和你对话的人完全看不到你在看什么东西,可能会感觉你有点心不在焉、视线没有集中在人身上。

至于实际的屏幕显示效果,Display 这块光波导屏幕亮度足足有 5000 尼特,搭配默认标配的光致变色镜片,在光线过强的户外镜片会变成墨镜片,可读性依然非常优秀。

单眼显示与神奇的 Neural Band

之前我一直担心单眼显示会不会很奇怪,但实际体验完全打消了这个顾虑。我已经连续使用了一个多小时,最明显的感受是它可以跟现实世界无缝融合

虽然 Display 仅有一块位于右侧的屏幕,但它的单眼显示效果与环境融合的很好,因为屏幕的位置和视场角(FOV)都设计的比较低,在直视的时候屏幕的显示区域会落在对方的胸口处,几乎和电影的字幕是完全一样的。

因为扎克伯格比对方矮,需要低头对话

这块 600×600 像素的屏幕虽然面积不大,但能做的事情跟手机很像,换句话说,整个显示界面的设计和逻辑完成度都非常高,几乎不会有使用时不知所措的情况。

比如我用它看 WhatsApp 和 Messenger 消息,整个对话流其实是可以完整显示出来的。通过手指上下滑动翻页,再用语音转文字回复的过程也非常流畅。我甚至在想,真的可以很长时间不用把手机从兜里掏出来了

而作为 Display 的主要操控方式,配套的 Neural Band 腕带更是改变了游戏规则。

虽然和苹果 Vision Pro 一样都可以通过手指手势操控,但 Display 并不依赖摄像头,而是借助腕带读取手腕的肌电信号(EMG)来识别的,也就是说你的手可以放在身体两侧、背在身后、甚至藏在口袋里,手势依然能被准确识别

Neural Band 的主要操作方式包括双击中指点亮屏幕、单击中指退出、单击食指确定、旋转手腕放大,以及用拇指在食指上滑动翻页等等。虽然需要一点学习时间,但是掌握难度并不高,灵敏度也是很优秀的。

而 Display 用来处理输入的方式则更加有趣。除了通过耳机上的 6 麦克风阵列做语音输入之外,你其实还可以戴着 Neural Band 直接在平面上写字,腕带会结合肌电信号和陀螺仪识别手写的字母,就像扎克伯格在发布会演示的这样:

扎克伯格在采访中透露了一个有趣的细节:他已经能用这个系统达到每分钟30个单词的打字速度,几乎一整天都在用眼镜收发消息。他的高管们甚至能分辨出哪些消息是用眼镜发的——比如那些长度更短、但是秒回的信息。

更重要的是,扎克伯格认为 Neural Band 的潜力远不止于此:

(虽然)我们发明 Neural Band 是为了配合眼镜使用,但我认为它最终可能成为一个独立的平台。未来,它不仅能通过思维实现个性化自动补全,还可能成为控制其他设备甚至智能家居的方式。

那些真正打动我的功能

如果说戴着 Neural Band 虚空写字像是变成了钢铁侠一样,那眼镜里的实时字幕功能让我感觉获得了超能力。

唤醒的方式很简单,说一句「Hey Meta, turn on live captions」,对面人口中的英语就会实时显示在屏幕上。在嘈杂环境里,Display 甚至能准确识别你正在看的那个人的声音,多个人同时说话也不会混淆。

并且得益于前面提到过的屏幕位置,戴着 Display 看实时字幕的方式,简直就是把眼前的现实变成了看电影。

虽然核心软件仍依赖手机连接,但这远不只是一个通知镜像。你可以发送文字、接听音视频电话、显示正在播放的音乐、获取逐向导航指引、查看相机取景,还能运行 Meta AI 识别眼前的物体。

发布会上演示的 LiveAI实时视觉识别场景

Meta 的 CTO Bosworth 强调:清晰的文字渲染是让AI变得有用的关键——如果 AI 只能语音回复,你获得的信息就有限。而当你提问后它能直接显示答案,这样不仅更直观,也更私密。

这种基于「你能看到结果」的确定感是普通版 Meta Ray-Ban 智能眼镜的纯语音交互无法给予的,并且在实际生活里,语音唤醒 AI 助手在很多场合是不太方便的,Display 语音/手势/视觉混合交互就不会有这种问题。

在体验 Display 的时候,我试着用 Meta 的 AI 功能识别了一幅画。Display 不只是语音回答,还在屏幕上显示了相关的信息卡片,信息密度相比纯语音交互(等 AI 慢慢念完)也更高一些。

这块小屏幕甚至可以用来预览相机画面,以及看视频——虽然 FOV 很小,但画面大小刚好,细节都能看清。如果朋友发来视频链接,你可以直接在眼镜上打开查看并快速回复,整个过程不用掏手机

总之 Meta Ray-Ban Display 体验下来,我觉得这副眼镜的核心价值有三点:

增大信息密度:哪怕只有一两行字的显示,获取的信息也比纯音频多得多

给予确定感:能看到具体的界面、动画和菜单选项,让眼镜的操作更有把握

成为AI的通路:AI 能看到你所见,你也能看到它的反馈,让 AI 更无缝地融入日常生活

这可能真的是下一个 iPhone 时刻

扎克伯格在访谈中的判断很明确:

眼镜将是下一个计算平台。这是唯一能让AI看到你所见、听到你所听、全天候与你对话的设备。

全球有 10-20 亿人日常佩戴眼镜。五到七年后,这些眼镜中的大部分会不会都变成某种形式的 AI 眼镜?扎克伯格说:我觉得这就像 iPhone 出现时,大家都还在用翻盖手机,但变成智能手机只是时间问题

Meta 瞄准的是「优化主义者」和「追求生产力的人」。虽然初期产量只有几十万副,但 Bosworth 预测「我们生产多少就能卖多少」。扎克伯格也暗示,真正的利润不会来自硬件本身,而是「来自人们长期使用AI和其他服务」。

体验结束后,我最大的感受是:Display 不再是概念产品或开发者玩具,而是真正可以日常使用的工具

虽然 799 美元不算便宜(一台 iPhone 17 也是这个价),20 度的 FOV 和 600×600 的屏幕也不算大,但这些都不妨碍它成为我用过最接近理想的智能眼镜。

我觉得 Meta Ray-Ban Display 的目标很明确——减少掏出手机的次数,把那些快速查看和回复的操作都通过眼镜完成。从这个角度说,它确实做到了。

或许正如扎克伯格所说,这就像智能手机替代功能机的时刻。智能眼镜的技术拐点已经到来,只是还未完全普及。而 Meta Ray-Ban Display,可能就是这场变革的开始,可能就是下一个 iPhone 时刻。

简体中文 English