对于视障群体而言,独立出行始终是一道难以跨越的障碍。7岁时因意外失明的蔡琼卉,凭借指尖对钢琴8800多个零件的精准感知,成为了一名调律师。然而,当她走出熟悉的钢琴世界,面对10米外的陌生环境时,常常陷入迷茫。“大多数导航在最后10米就结束了,我常常在原地打转,找不到方向。”她的困境,折射出众多视障者的共同难题。
为打破这一困境,瞳行科技研发团队依托阿里云千问大模型,历时大半年展开技术攻关。他们深入城市街头巷尾,采集斑马线、台阶、障碍物等200余类路况信息,构建起庞大的训练数据集。同时,团队结合200多位视障者的日常需求,补充盲人相关领域知识,确保模型能够精准适配实际应用场景。经过两千多次实地测试,团队成功将避障反应时间从500毫秒缩短至300毫秒,为视障者独立出行提供了关键保障。
这款AI助盲眼镜不仅具备核心避障功能,更通过实时图像解析与场景理解技术,为视障者构建起全方位的环境感知体系。无论是识别路况、辨读路牌,还是解析菜单,眼镜都能将视觉信息转化为清晰的语音提示,帮助用户“看见”周围的世界。蔡琼卉试用后表示:“现在出门,我能提前感知到前方的障碍物,甚至能通过语音提示找到公交站台,这种安全感是以前从未有过的。”
研发团队负责人透露,技术优化的背后,是对视障者需求的深度理解。“我们追求的不仅是毫秒级的响应提升,更是让用户感受到被守护的安全感。”目前,这款眼镜已完成多轮测试优化,成为国产大模型技术落地民生领域的典型案例,为视障群体独立出行提供了创新解决方案。















