检测仪

苹果的另一个王炸,已经在你的iPhone

发布时间:2024/8/3 10:29:29   

10月19号苹果又开了一场发布会,这次的新MacBookPro确实足够炸裂,英特尔原地爆炸。

两款全新芯片M1Pro和M1Max的出现甚至让我预见了未来PC阵营的洗牌,以后笔记本和桌面级芯片将会不断的向ARM架构靠拢,这仿佛是改变世界的苹果又回来了。

不能说是仿佛,其实在苹果,那个满脑子改变世界的乔布斯精神一直都在。

从iPhoneX开始,苹果就在为未来的技术预埋硬件,当时库克在发布会上说年时iPhone已经度过了第一个十年,而接下来的苹果将进入下一个十年发展期。

这里注意,下一个十年苹果在做的可不只是丑陋的刘海和单纯的技术迭代,而是已经在为下一个“onemorething”预埋技术。

它正在悄无声息的布局在年开始的每一部iPhone中,在其生效之时,iPhone8开始的每一位用户都能从中获益!

这个技术就是“AR增强现实”技术,这个技术能将虚拟信息与现实世界巧妙的融合,就如这台虚拟的iPhone13Pro。

可别小看AR技术,这个能让苹果花大功夫深耕的东西必定不是泛泛之辈,未来轻量化AR眼镜出现的时候,人们可以很自然的使用虚拟信息与现实中的事物互动,这必将深刻改变我们的生活!

比如AR眼镜可以直接在现实世界中添加地图导航图标和路况提醒,特别直观,开车都不用听地图APP的语音和看手机了,苹果布局的这个技术,说是下一次“王炸”也不过分。

而且苹果为未来的新功能预埋硬件,也不是一次两次了,比如AirPodsPro中就预埋了刚发布时用不到陀螺仪和U1芯片,于是……

一年后,你的AirPodsPro通过一个固件更新突然支持了空间音频。

两年后,你的AirPodsPro通过一个固件更新突然支持了离线定位功能。

AirPodsPro用户极度舒适。

那么这里我就为大家盘点一下苹果为了布局AR提前做了哪些事。

1.仿生芯片

有留意的朋友可以发现,从年的A11开始,苹果的芯片正式更名为“仿生芯片”。

具体表现就是加入了“神经网络引擎”,这玩意可以帮助手机完成一些机器学习的工作。

比如以前的手机识别一张照片,它只能识别出照片中每个像素点的颜色,而无法识别照片中到底有什么东西;

但是有了机器学习之后,手机就能“理解”照片中的事物了,比如图中的人脸和手机,如果再“聪明”一点,或许还能分辨出周明的iPhone13Pro是假的……

如果你持有仿生芯片的iPhone或者iPad,你可以通过设置打开“旁白”功能,然后再打开“放大器”APP,“放大器”就会语音朗读出镜头所拍到的内容,人、物品和场景,甚至是天气都能识别,这是一个盲人辅助功能,但是A11芯片之前版本的iPhone无法做到。

实际上这个功能CPU和GPU也能干,只是效率太低了,一用手机就热,专业的事就需要专业的“人”干,从A11到A15,“神经网络引擎”从2核升级到了16核,算力从亿次每秒升级到15.8万亿次每秒,前后翻了26倍。

有人说苹果为了数量极少的盲人能做这么多,哎呦我真是太感动了。

但实际上这只是苹果布局AR过程中顺手做的一件善事。

目前来看,“神经网络引擎”虽然还有别的功能,但对于一般人真的没什么用,即便是全部砍掉,我们也几乎不会有感知,苹果之所以费这么大劲升级它的性能,唯一说得通的解释就是:苹果在为未来布局。

AR需要将虚拟信息与现实世界融合,就必须要读懂画面中事物。

2.LiDAR

iPadPro/款、iPhone12/13Pro和ProMax等旗舰产品上都搭载的LiDAR镜头,我们一般叫激光雷达,主要功能是测距和探测,年阿波罗15号飞船就是用的这个技术扫描绘制了月球表面的图像。

可这玩意对普通人没什么用。

可巧的是苹果的激光雷达依然是从年开始布局的,年,苹果为菲尼萨公司(Finisar)投资了3.9亿美元以研发激光雷达。

款的iPadPro搭载激光雷达时,苹果就官宣了这是为AR技术而搭载,为此还未iPadPro增加了一颗超广角镜头以捕获更宽广的画面。

而到了年,苹果又给这家公司投了4.1亿美元,目的是为了量产,按这个节点,明年iPhone14基础款就能够搭载激光雷达镜头了。

3.精确定位

也就是U1芯片,前边的AirPodsPro已经提到过了,这是iPhone11上开始搭载的,作用就是精确定位,不论是坐标还是方向,按苹果的话说,就是“空间感知能力”。

这个就很好理解了,如果AR技术不能将现实中的物品精准,那体验自然是很差的。

试想一下,你在玩游戏的时候,你看到对手的模型跟他实际的位置是不一样的,那还玩个毛。

4.AppleWatch手势操作

在watchOS8更新后,AppleWatch就增加了一个新功能:AssistiveTouch。

这个功能可以让人们在不触摸显示屏或任何按键的情况下,通过手势操作AppleWatch,手表利用光学传感器、陀螺仪、加速计等传感器配合机器学习,识别出我们捏住、握紧这些动作。

于是我们就可以解放双手了。

这个技术类似MYO腕带,它可以用各种手势玩游戏、翻PPT、操控无人机等,而且非常灵敏和准确。

目前的一些AR眼镜是依靠捕获手部的动作操控虚拟信息,但前提条件是你的手必须在摄像头范围内,不光难受,局限性还非常大。

为了解决这一问题,现在很多AR或VR设备都会给你两个傻大黑粗的操控器,但双手依然无法解放。

如果将AppleWatch手势操控的技术加入到AR领域,那么对AR的交互升级将是翻天覆地的。

5.iGlasses

iGlasses是苹果AR眼镜的暂定名称,苹果早在年就申请了相关专利,并在年曝光了这款眼镜的概念图,当时这款眼镜在造型上还是蛮科幻的。

但现在都快年了,还是不见踪影。

不过现在似乎又离发布的日子不远了,以最近曝光的苹果AR眼镜造型来说,可能会是这种普通眼镜的造型,特别低调。

不过按这个体积,初代苹果AR眼镜应该跟初代AppleWatch一样,算力全靠与之连接的iPhone。

虽然对于苹果的AR,目前来说也只能是猜测,AR技术对未来的影响有多大,我们不得而知,苹果在几乎没有回报的情况下,不知做了多少年,就光是做这件事的魄力和定力,都是值得敬佩的。

很多人说苹果在吃老本,我认为不对,苹果正在用户看不见的地方默默耕耘。

哪一天AR眼镜真正成熟之后,苹果就能依靠多年在设备上预埋的硬件和庞大的用户群体,快速的把新技术铺开,将科技的便利第一时间带给人们,而苹果本身也能得到巨大的利润。

反观国内的部分安卓厂商,只是在硬件上疯狂堆料,一昧的赚快钱。

虽然我们国家有同样魄力的华为,却遭到了海外流氓无情的制裁,倘若哪天华为能冲破枷锁,其涅槃之时,便是傲视群雄之日!

启发

虽然说这件事跟我们老百姓关系不大,但我们也可以从里面得到一些启发。

比如我们生活中很多进步都不是线性增长的,而是“跳跃式”进步的,比如挣钱这事,今年挣10万,明天可能就直接翻倍挣20万,后年突然又撞大运,可能做的项目火了,撞到了一只“黑天鹅”啥的,一下子就挣万了。

而我们平时要做的,就是主动的去提高这种撞见“黑天鹅”的概率。

而对于我们来说,提高这个概率最简单的方法就是多学习、多看书,多去做一些不同的事,厚积薄发!



转载请注明:http://www.aideyishus.com/lktp/6531.html
------分隔线----------------------------