Google正式推出了带有 Android 10 的Live Caption,这是一项标题功能,可以从手机上的视频、播客或音频消息中生成文本。从那时起,该公司一直在扩展该服务的功能,目前使用相同的技术为Live Translate提供支持。现在,距谷歌首次宣布其解决方案已有三年时间,Apple 为 iPhone 引入了类似的东西以及一系列其他可访问性工具。
Live Captions将出现在 iPhone、iPad 和 Mac上,具有与 Android 对应的类似功能。这意味着从任何音频内容(例如 FaceTime 通话、社交媒体应用程序或流媒体内容)中自动生成屏幕上的文本,以便听力受损的用户更轻松地进行对话。
字幕的显示将非常灵活,让用户可以根据自己的喜好调整字体大小。通过 FaceTime 通话,系统将自动向参与者分发脚本,Mac 上的通话将支持文本到语音的响应组件。iPhone 上的实时字幕将在设备上生成,就像在 Android 上一样,因此 Apple 不会收听其中的任何内容。
与此同时,Apple 还为盲人和视力不佳的人推出了一项有趣的门检测功能。Door Detection 将使用 iPhone 的 LiDAR 扫描仪、摄像头和机器学习来在用户到达新目的地时定位一扇门,计算其距离,并注意它是打开还是关闭。由于激光雷达是该功能的先决条件,因此它可能仅限于 iPhone Pro 12 和 13 型号以及一些 iPad Pro。
苹果还展示了许多其他可访问性功能,包括读取门周围标志和符号的能力。我们还获得了新的可穿戴功能,例如镜像,允许用户使用 iPhone 的辅助功能(如开关控制和语音控制)和 20 多种其他 VoiceOver 语言(包括孟加拉语和加泰罗尼亚语)来控制他们的 Apple Watch。