想看一些很酷的东西吗? 看看这个内置的很棒的人工智能功能 iPhone

Apple 不太喜欢使用“人工智能”或“AI”这些词,而是更喜欢使用更通用的术语“机器学习”。 但你可以称其为 ML、AI,或者任何你想要的名字,它的根源无处不在 Apple的产品 – 尤其是 iPhone。 它用于照片应用、相机、键盘、Siri、健康应用等。

但它经常以看似看不见的方式被使用。 当照片为我们将人物图像分组在一起时,我们不会考虑面部识别。 我们不知道每次按下快门按钮,用如此小的相机传感器和镜头系统拍摄一张精彩照片时,人工智能在发挥多大作用。

如果你想要一些非常明显的东西 example 如果您的 iPhone 上有人工智能,那么放大镜应用程序非常适合您。 特别是物体检测模式。 指向你的 iPhone 您可以专注于对象并接收对象的描述,通常还包括其位置 – 所有这些都完全使用设备上的人工智能。 以下是尝试方法。

在放大镜中启用检测模式

首先,打开放大镜应用程序。 您可能已将其添加到控制中心或通过操作按钮 iPhone 15 Pro,但您也可以在应用程序库或通过搜索找到它。

该应用程序旨在帮助人们近距离查看细节或阅读小字,并旨在帮助那些有视力障碍的人。 我一直用它来阅读食品包装上的微小成分文字。

从那里,点击最右侧的括号框(在带有 LiDAR 的 iPhone 上),然后点击左侧的文本气泡按钮。 如果你的 iPhone 没有激光雷达,您只能看到带有文本气泡的按钮。 没有看到按钮? 向上滑动缩放滑块即可查看它们。

寻找此按钮(在配备 LiDAR 的 iPhone 上)以进入物体检测模式。

铸造厂

您现在处于发现模式。 设置齿轮使您能够查看您所指向的任何内容的文本和/或听到语音描述。

观看 AI 的工作

现在开始指着你 iPhone 东西的! 您将看到当前显示的任何内容的文本叠加 – 动物、物体、植物等等。 更新有时可能需要一瞬间的时间,有时会出现一些错误(有时甚至是可笑的错误),但此处显示的图像分析令人印象深刻。 他们被赋予的形容词不仅用来描述颜色,还用来描述位置和活动。

看那个:

铸造厂

它不仅认出了自己是一只猫,而且认出了一只正在睡觉的猫,也认出了自己不仅在床上,而且还认出了一张宠物床。

请注意以下示例如何描述耳机(白色)、它们的位置(在黑色表面上)以及它们与另一个检测到的物体(计算机显示器旁边)的关系。

铸造厂

当然,有时也会出现问题。 这不是玻璃桌子,而是玻璃碗。 也许背景中的椅子令人困惑,或者由于有很多面和角度而无法辨认出碗的形状。

铸造厂

但无论是在室内还是室外,我总是惊讶于这个功能能够如此准确地描述我所看到的东西。 问题是:这完全发生在设备上。 说真的,试试你的 iPhone 在飞行模式下,它的工作原理是一样的。 您不将视频源发送至 Cloud; 没有人知道你在哪里或者你在做什么。

与在大型服务器上运行的人工智能例程相比,这种对象检测和描述的精度 Cloud 巨大的计算能力和庞大的物体识别模型运行起来需要更多时间,不是很令人印象深刻。 大型科技公司多年来一直能够做到这一点 Cloud-计算模型。

然而,这只是一个相对较小的功能,可以在任何现代设备上正常工作 iPhone,甚至是那些已经有好几年历史的。 太好了 example 什么的 Apple 通过更好的代码和更多的培训,我们在人工智能领域以及我们的 iPhone 未来可能具备的能力,同时维护我们的隐私和安全。