苹果手机屏幕虚化怎么恢复(视觉智能让我的 iPhone 16 上的相机控制变得值得使用)

iPhone 16硬件的一个独特亮点就是其相机控制按钮。该按钮位于手机边框右下角,小巧且具备物理按钮的特点,同时集成了一些电容功能。随着iOS 16的发布,只需一键即可启动相机应用,用户可以通过半按和滑动手势来调整相机设置。这一设计独具匠心,但也存在一些缺陷,使其无法成为完美的快门按钮。
幸运的是,随着iOS 18.2的推出,iPhone 16迎来了许多新的Apple Intelligence功能。特别是其中的Visual Intelligence功能,类似于Google Lens,为iPhone用户带来了全新的视觉体验。
在体验了最新的更新后,我发现Visual Intelligence确实为相机控制带来了翻天覆地的变化,使得原本略显笨拙的按钮变得更加实用。
说起相机控制,我不得不提到初次使用时的感受。当我拿到iPhone 16 Pro时,我兴奋不已,急于尝试相机控制来满足我的摄影需求。在实际使用中,我发现相机控制按钮的位置以及使用它时产生的抖动问题令人堪忧。按钮的位置更靠近画面下部,对于横向拍摄来说,需要伸手才能触及,这对于我这样的用户来说并不方便。按下相机控制按钮时,相机产生的轻微抖动可能导致静态图像模糊。
虽然Apple在后续更新中对相机控制进行了一些优化,解决了半按进入相机设置所需的压力问题,但我仍然觉得使用触摸屏更为便捷。几个月后,我仍然更倾向于使用屏幕快门按钮来确保照片清晰不模糊。
Visual Intelligence的加入彻底改变了我的看法。在iOS 18.2之前,相机控制对我来说只是一个专用的相机操作按钮。但现在,借助Visual Intelligence,我更多地依赖相机控制按钮。
要启动Visual Intelligence,只需按住相机控制按钮,就会弹出一个取景器,让你对准现实世界中的物体。然后,你可以选择快速拍摄(不保存到照片库)并询问相关信息,或者选择“询问”或“搜索”功能。询问功能会向ChatGPT发送简单的提示,而搜索功能则会显示与所对准物体相关的Google搜索结果。
Visual Intelligence的效果取决于你使用相机对准的内容。我通常使用它来识别植物、动物和随机物体。你还可以用它来查找关于景点、商家、服务的详细信息,进行文本翻译等。
自从安装iOS 18.2以来,我虽未长时间使用此功能,但已能预见到在外出时经常会使用它。与相机快门按钮相比,相机控制按钮的位置更适合使用Visual Intelligence。作为右撇子,我通常用右手握住手机,拇指放在相机控制上,因此可以轻松地单手使用Visual Intelligence。
最初,我对购买iPhone 16 Pro有所犹豫。但现在,随着Apple Intelligence功能的推出,我对购买这款手机感到非常满意。在我看来,相机控制的主要目的是与Visual Intelligence结合使用,以及快速进入相机。iPhone 16 Pro现在具有5倍光学变焦,这使得我更加满意。据我了解,自相机控制首次亮相以来,似乎很少有人使用它。但现在,有了iOS 18.2和Visual Intelligence的加持,我认为相机控制将成为我最喜欢的iPhone功能之一。
