关于可穿戴AI设备,过去三年行业反复在回答同一个问题:除了手腕和眼睛,下一个能承载AI感知的物理入口在哪里?光帆科技在2026年5月给出的答案是耳朵。
5月9日,光帆科技宣布旗下“行业首款带摄像头AI耳机”光帆全感AI耳机将于5月15日发售[1]。这条消息迅速进入科技媒体的信息流,但与其说这是一次产品发布,不如说这是一份公开的硬件宣言——光帆提出了一个方向,但距离证明这个方向走得通,还差几张关键的答卷。
一副耳机的“超纲”配置
拆解光帆全感AI耳机的硬件规格,它确实在传统真无线耳机的框架上做了明显“超纲”。单耳11克的开放式耳挂设计中,工程机双侧各塞入了一颗200万像素摄像头[2]。官方明确标注这些摄像头“非拍照用途”,功能定位为环境与物体识别,具体场景被描述为商品比价、餐厅分析等[3]。耳机盒也不是简单的充电仓,内部集成了4G蜂窝网络模块,允许用户脱离手机独立使用[4]。续航方面,官方参数显示通话9小时、音乐播放15小时,配合充电盒总续航最高90小时[5]。
这是一份令人侧目的规格表。把摄像头、4G基带、AI处理能力和电池塞进总重11克的单耳机身,工程难度不言而喻。但恰恰是这些“超纲”配置,暴露了产品当前最核心的问题:11克的机身里,还有多少功耗和散热预算留给“持续感知”这个核心卖点?
这引出了一个关键缺口。公开信息完全没有说明端侧芯片型号、NPU算力或推理框架[2][3]。如果环境识别依赖将视频流上传至云端处理,端到端延迟在4G条件下通常超过300毫秒,与“实时”“主动提醒”的用户体验预期存在明显张力;如果推理在端侧完成,则需要公开端侧模型的参数量、量化方案和内存占用,但这些技术细节目前均未披露。耳机盒集成4G解决的是连接问题,不解决计算问题——脱离手机使用在物理上是成立的,但计算依赖是否真的独立,仍然是开放的。需要指出的是,目前尚无公开数据可以验证该产品在多场景下的实际推理延迟和流量消耗,上述分析基于通用网络条件和行业经验。
未被回答的功耗问题
性能与功耗的守恒定律,在这款产品上体现得尤为尖锐。双侧摄像头持续开启做环境感知,功耗曲线与纯音频播放完全不在同一量级。但官方给出的续航数据——通话9小时、音乐15小时、总续航90小时——均未标注是否包含摄像头感知开启工况[5]。一个合理的工程推测是:如果摄像头和AI持续工作,实际续航可能显著低于标注数字。这必须在产品发售后通过第三方实测才能验证,在此之前,所有续航数据都应被视为特定工况下的理论值。
这种信息选择性披露,也延伸到更核心的AI能力描述上。产品宣称可实现“全感知、主动式、个性化”,能够理解用户所处环境并主动提供提醒和建议[6]。这一表述在技术路径上需要维持环境的持续感知与及时响应,但官方尚未公开从摄像头采集到动作建议的完整链路时延测试或场景触发的准确率数据。更值得注意的说法是“不断学习”——如果指端侧个性化微调,涉及增量训练、隐私保护和存储开销,工程复杂度极高;如果指云端用户画像,就需要用户登录、数据上传和明确的隐私政策,这些配套信息在预售阶段同样缺席。
“行业首款”的边界在哪里
在产品定位上,光帆使用“行业首款带摄像头AI耳机”这一标签值得作出限定。如果限定为开放式耳挂形态的TWS耳机,或许可以成立;但若将比较范围扩大到带摄像头的可穿戴音频设备,Meta在2021年发布的Ray-Ban Stories就已搭载双500万像素摄像头,2023年二代升级至1200万像素超广角,功能覆盖实时物体识别和语音交互。虽然Meta的产品是眼镜形态而非耳机,两者在“视觉传感器+AI主动服务+脱离手机使用”的核心功能路径上高度重叠。光帆200万像素的传感器规格,更多折射出对端侧算力和功耗的妥协,而非传感器能力上的突破。
把摄像头塞进耳机这件事,在工程上是新的,但在产品逻辑上并非全然未知的尝试。真正的分水岭不在于“能不能做”,而在于“为什么之前没人做成”——这个问题比任何参数都更值得放在判断的中心。
找不到买单方的商业叙事
从商业逻辑审视,这款产品目前还没有清晰回答一个根本问题:谁会在什么场景下,为这副耳机持续付钱,而不是继续用手机解决同样的问题?
“商品比价”和“餐厅分析”听起来是实用的场景,但它们是低频场景,无法支撑用户日常佩戴的频次。更关键的是,这些功能的使用者是消费者,实际受益方可能是电商平台或商家。如果耳机帮用户扫描商品跳转到电商平台比价,平台也许有意愿为这种引流能力付费,但目前光帆没有公布任何企业渠道合作或B端解决方案。这意味着产品仍处于向C端讲述故事、寻找首批用户的阶段,而耳机品类中用户为硬件之外的服务持续付费的意愿,此前未被验证过。
从成本结构看,这副耳机的硬件成本注定远高于普通TWS耳机,而TWS市场已被手机厂商牢牢控制,百元价位段的消费锚点锁死了用户对耳机的功能预期。如果定价进入较高区间,它就不再参与耳机品类的竞争,而是进入智能手表、智能眼镜所在的计算设备赛道,却又没有屏幕这一信息输出载体,服务交付能力天然受限。4G模块带来的持续网络资费更是硬约束——这笔月租由谁承担,直接决定产品的长期使用成本结构。
“AI人设”和“情绪陪伴”的卖点,在叙事层面可以唤起共情,但要转化为真金白银的购买决策,需要极其精准的场景命中。目前发布会给出的信息,还不足以完成这层转化。
隐私这关避不开
戴在耳朵上向外看的摄像头,触碰的是一道被Google Glass验证过的难题。光帆以括号标注“非拍照用途”[2],试图打消隐私顾虑,但这依赖的是厂商对传感器数据的绝对控制承诺,而非技术层面的物理隔离方案。过去十年,任何戴在面部的摄像设备都未能真正解决公众接受度问题,一副带摄像头的耳机走在街上,旁观者的反应不是技术问题,而是直接决定佩戴者日常使用意愿的社会因素。
公开信息完全没有涉及数据处理位置、视觉数据留存策略和隐私条款细节。在产品发售前,这是必须透明的信息。如果光帆能够在端侧完成全部视觉推理、做到“数据不出设备”,这个隐私问题就有明确的解答路径。如果依赖云端处理,则需要解释传输加密、数据留存周期和第三方调用边界。没有这些信息,隐私焦虑就不会因为这个括号被打消。
一个值得追踪的实验
综合来看,光帆全感AI耳机是一次有勇气的产品实验。它正确地识别出一个方向:耳朵可能是继手腕之后最自然的随身传感器载体,佩戴时长远超手机摄像头,能捕获更连续的日常生活数据。但“正确方向”和“正确产品”之间的距离,需要大量公开验证来填补。
在当前的预售节点,所有核心信息——AI功能实测表现、摄像头开启下的真实续航、端侧推理的存在性与效率、隐私解决方案——都处于信息真空状态。在缺乏这些关键拼图的情况下,任何关于产品力的确定判断都是不审慎的。
5月15日发售后,有几个指标可以迅速把判断的硬度提上来。首先是第三方拆机报告,确认端侧芯片型号和NPU规格。其次是AI功能开启后的续航实测,揭示功耗曲线的真实面貌。第三是隐私条款的具体内容,尤其是摄像头数据的留存策略和处理位置。第四是有没有第一个企业客户公开表示将这款耳机纳入工作流程,这比首销数字更能回答“谁在持续付钱”这个问题。
在没有这些证据之前,光帆全感AI耳机更准确的定位是一次概念验证,它试探了“耳机作为AI感知入口”这个方向,提出了正确的问题,但距离回答这个问题,还隔着一张需要公开实证来填补的答卷。如果光帆接下来能给出这些答案,这副耳机就有机会从一个有趣的实验,变成一个真正定义新品类的产品——目前这个判断本身,同样等待被验证或推翻。
参考资料
把这款产品拆成可运行的技术闭环,会先卡在三个问题上:摄像头在哪儿推理、AI 调用走哪条链路、以及 11 克机身里还剩下多少功耗预算给持续感知。发布稿提供的信息恰好避开了这三个关键点,所以目前只能按硬件选型和功能声明做边界推演,无法给出已验证的技术判断。 先看最核心的“带摄像头 AI 耳机”闭环。双侧 200 万像素双目摄像头,标注非拍照用途,用于环境识别和物体场景识别,那么推理必须发生在音频和视频两条管道交汇的地方。发布稿没有交代端侧 SoC 型号、NPU 算力和推理框架,只提到耳机盒集成 4G。如果环境识别需要把图像上传云端做推理,延迟和功耗曲线会直接决定“实时识别”能不能成立。200 万像素单帧约 1600×1200,按 YUV 格式一帧大概 2.7 MB,即使压缩到几百 KB,每 2–3 秒推一帧,持续视频流会吃掉 4G 带宽和耳机盒电池。工程上的保守估计是:如果每 5 秒上传一帧做云端推理,单日活跃使用 3 小时,光视频流就可能消耗 500 MB–1 GB 流量,这对 4G 套餐和续航都是硬约束。反向来看,如果推理在端侧完成,发布稿没有给出端侧芯片信息,11 克机身里的散热和功耗空间不足以支撑持续视频推理,双目再加音频、蓝牙和 4G 基带,功耗表必须公开,否则“主动服务”无法评估实际可用时长。 再看“全感知、主动式、个性化”这个 AI 能力表述。从工程角度,这意味着系统需要维持一个持续更新的环境上下文向量,并在低延迟下触发合适的建议动作。技术链路至少包含:摄像头采集→编码→推理→语义理解→对话生成→语音合成→推送。如果模型在云端,延迟在 4G 条件下通常 > 300 ms,加上推理时间,端到端 > 1 秒,难以做到“主动提醒”的实时感。如果模型端侧部署,需要回答端侧模型参数量、量化方案、内存占用和推理延迟,目前无任何公开数据。更关键的是“不断学习”这个说法——如果指端侧个性化微调,工程复杂度极高,涉及增量训练、隐私保护和存储开销,发布稿没有给出任何技术路径说明;如果指云端用户画像,需要用户登录、数据上传、隐私政策,这些在发售前也必须透明。 耳机盒集成 4G 可以脱离手机使用,这个硬件描述本身可信,但“脱离手机”不代表 AI 能力可以独立运转。4G 模块解决的是网络连接,不解决计算。真正需要观察的是耳机盒内部是否集成了独立的应用处理器和 AI 加速芯片,还是仅作为网络热点让耳机调用云端 API。如果是后者,耳机仍然需要一个终端上的宿主应用做鉴权、账户和模型调用管理,本质只是物理形态上摆脱了手机,但计算依赖依然存在。 性能-成本守恒在这里体现得非常直接。双侧摄像头常开做环境感知,功耗账单会比纯音频耳机高出一个数量级。发布稿给出的续航数据——通话 9 小时、音乐 15 小时、总续航 90 小时——没有标注是否含摄像头感知开启。工程直觉:如果摄像头持续工作,单耳 11 克下的电池容量大约在 60–80 mAh,加上视频处理和 4G 上行,实际续航可能砍半甚至更低。这需要在产品发布后用户实测才能验证。 接口即承诺方面,这款产品目前还没有开放 SDK 或 API 的信息,也没有端侧模型的任何技术文档。用户和开发者无法判断“商品比价”“餐厅分析”这些能力是内置固定技能还是可扩展的 Agent 框架。如果只是预置几个云端调用场景,那“AI 助理”的开放性就打折扣。更重要的边界是隐私:双侧摄像头指向用户周围环境,连续采集的法律风险和用户接受度需要明确的端侧处理承诺,目前发布稿完全没有涉及数据处理位置和留存策略。 我的核心判断:这是一个硬件形态有趣的实验产品,但技术闭环的多个关键节点——推理位置、端侧算力、持续感知功耗、AI 模型细节——全部处于信息缺失状态。发布稿里的“全感知”“主动式”“不断学习”属于技术黑话包装,没有对应的可验证实现。在代码、模型、功耗实测数据公开之前,只能写成“声称”,不能写成“实现”。后续必须追踪的指标包括:端侧芯片型号和 NPU 算力、AI 模型参数量和推理框架、摄像头工作时真实续航、隐私数据处理方式、以及是否开放第三方开发接口。
建议暂不发稿,待产品5月15日发售后获取第三方拆机、续航实测等数据再发布。
为什么没放进正文:总编辑认为本文叙事主线即‘未完成验证’,如实记录信息真空具有报道价值,发售后事实可验证或推翻。
Reader Signal
这篇文章对你有帮助吗?
只收集预设选项,不开放评论,不公开展示个人反馈。
选择一个判断,也可以附加一个预设标签。
发布于 2026-05-10 10:08:12。本文为原创深度报告,未经授权不得转载。观点仅代表编辑部独立判断,不构成投资建议。