IT之家于5月23日发布消息,彭博社的马克・古尔曼在今日的报道中指出,苹果公司正在加快其智能眼镜的研发进度,计划在2026年年底推出首款产品,此举旨在进一步扩大其在人工智能增强设备市场的份额。
知情人士透露,苹果的工程师们正在加速对该款眼镜的研发工作,旨在确保能够在2026年年底前达成产品发布的既定目标。然而,与此同时,公司已经暂停了对配备内置摄像头的智能手表的研发项目。
该产品将直接与meta Ray-Ban的智能眼镜以及谷歌近期发布的Android XR眼镜原型相竞争,其定位为一种以人工智能为基础的初级可穿戴设备。
内部消息显示,该款智能眼镜将集成摄像头、麦克风阵列和微型扬声器等设备,能够实现拍摄静态图像与动态视频、即时翻译、精准导航、音乐播放以及通话通话等多样化功能。
类似 meta 及其他竞品,用户能够通过 Siri 语音助手进行交流,同时设备还能根据用户的视野内容给出相应的环境分析反馈。然而,目前这款产品尚不支持增强现实技术。
内部消息显示,苹果公司计划在今年年末启动与境外合作伙伴的合作,届时将进行大规模的原型机生产,以确保为接下来的量产测试阶段提供充裕的准备时间。
测试工程师对彭博社透露,该产品在外观上与meta Ray-Ban相似,然而在工艺上却更为精细。据悉,这项研发任务由苹果公司的Vision产品部门主导,而该部门之前已经承担了Vision Pro的研发任务。
值得注意的是,与meta公司采用Llama和谷歌Gemini双AI平台的做法不同,苹果公司将完全依靠自研的AI模型。
内部人士透露,苹果的研发团队对公司AI技术的储备情况持有疑虑。目前,iPhone的视觉智能功能仍需借助谷歌和OpenAI的技术支持,而meta眼镜和谷歌Android XR眼镜则完全依赖于自家的AI平台。为了实现硬件的自主化,苹果正在紧急研发替代技术。
IT之家观察到,近期苹果公司推出了一款名为FastVLM的视觉语言模型,该模型分为0.5B、1.5B、7B三个版本,旨在对搭载Apple Silicon的设备进行端侧AI运算的优化。这一技术主要应用于苹果公司正在开发的智能眼镜等穿戴设备领域。
技术文档表明,FastVLM 在确保精确度的同时,达到了高分辨率图像处理的接近实时效果,并且相较于其他同类模型,其所需的计算资源大幅减少。