首页 > 热点资讯 > 正文

Apple Vision Pro_Apple Vision Pro 要上市了,来了解下它的前世今生

2024-01-20 02:58
来源:网络

Apple Vision Pro_Apple Vision Pro 要上市了,来了解下它的前世今生是非常多小伙伴都想了解的内容,下面小编为大家整理的Apple Vision Pro_Apple Vision Pro 要上市了,来了解下它的前世今生相关信息,欢迎大家的分享收藏哟!

Apple Vision Pro_Apple Vision Pro 要上市了,来了解下它的前世今生

Apple Vision Pro 要上市了,来了解下它的前世今生

很多人认为VR等技术是近年来的新产品,但在苹果发布Vision Pro之后,这个行业才引起了大众的关注。实际上,Vision Pro只是VR的一种形式,更加侧重于VST。要了解更多详情,我们需要回顾一下其历史。

Apple Vision Pro将于今年3月在美国上市,价格为3499美元起,相当于人民币24851元。这款由苹果耗时8年研发的产品,即将揭开神秘面纱。

苹果将其新产品称为“空间计算机”,试图与VR划清界限。但是,名称只是心理暗示的一种手法,Vision Pro的本质依然是VR,只不过它更加强调VST。

市场上已经有许多关于Vision Pro的文章和视频,但我更感兴趣的是Vision Pro背后的起源——自从公元前4世纪宙克西斯(Zeuxis)和帕拉西修斯(Parrhasius)在绘画比赛中展示了“错视画”的技巧后,我们的世界到底发生了什么变化?技术的发展是否让我们进入了王阳明所说的“心外无物,心外无理”的境界?

神经科学研究表明,人类通过五种感觉系统获取世界的信息:视觉、听觉、味觉、嗅觉和触觉。这些感觉系统起到了“滤镜”的作用,只有经过它们识别的信息才能被大脑接收,并经过翻译形成最终的感知。每种感觉系统都有自己的“滤镜”规则,比如视觉只能接收波长在380至760纳米之间的电磁波,而听觉所能感受到的振动频率范围在20-20000赫兹之间。过滤掉的信息会被传递到大脑,并遵循一定的规则被翻译成“颜色”、“声音”。

现在,让我们设想一下:如果我们能够理解和掌握感觉系统的过滤规则和大脑的翻译规则,是否可以通过逆向工程创建一个虚拟的现实世界?

最早有这样的想法的是一群画家。公元前4世纪,也就是苏格拉底的时代,画家Zeuxis和Parrhasius举行了一场画作比赛。Zeuxis将葡萄画得活灵活现,吸引了鸟儿前来啄食。当Zeuxis得意洋洋时,Parrhasius邀请他去看他的作品。Zeuxis如期赴约,当他想拉开窗帘看画时,才发现窗帘是画出来的。

Parrhasius的绘画技巧被称为“错视画法”。使用这种方法创作的作品会使观者将二维平面误以为三维对象,因此也被称为空间的幻觉艺术

错视画法的核心在于线性透视。其基本原理是模仿人眼看待世界的方式:距离越近的物体看起来越大,距离越远的物体看起来越小;物体的大小随着其偏离视线的程度逐渐减小。经过几千年的演变,画家们已经熟练掌握了透视的技巧。例如,安德里亚·波佐(Andrea Pozzo)于1694年在罗马圣伊格纳西奥(Sant'Ignazio)绘制的天花板画就是古典时代错视画法发展的高峰。

然而,无论多么逼真的错视画,毕竟还是二维平面的存在,我们仍然无法真正触摸到三维的世界。直到1838年,查尔斯·惠斯通(Charles Wheatstone)发明了史上第一台立体镜。立体镜的基本原理是人的双眼有一定距离,同一物体,左右眼接收到的是不同角度的平面图像。这两个不同角度的平面图像经过大脑中特定的翻译规则,最终转化成一幅立体的3D图像,这就是我们现在熟悉的“视差”。

“视差”的发现以及立体镜的发明,开启了人类进入3D的大门。从此,我们可以将看到的一切真实地模拟出来。然而,真实的世界不仅包含3D的空间,还包括第四维——时间。真实的世界不存在静止的物体。在真实的世界里,我们不仅能看见物体的3D形象,还能看见它的运动状态。什么时候,我们才能虚拟出真实流动的生活景象,看到人来人往,花开花落呢?

海利格(Morton Leonard Heilig)是第一个实现这一点的人。他在1957年发明了Sensorama,包括一块立体彩色显示屏、风扇、气味发射器、立体声系统和一张运动座椅。Sensorama内置了多个观看场景,其中一个模拟了在纽约街头骑摩托车。观看者坐在座椅上,立体彩色显示屏播放海利格拍摄的纽约街道画面,风扇模拟摩托车行驶时吹来的风,立体声系统播放纽约街头的声音,气味显示器会在特定时刻被触发——比如靠近一辆公交车时,会释放汽车尾气的味道,而披萨店也不会遗漏。

Sensorama的初衷是为了教育。海利格在他的专利申请书中表示:亲身经历的学习效果远胜于阅读或听讲座。但由于海利格自身的背景(电影制片人)和技术限制,Sensorama并不能真正实现与观看者的互动,只是单方面的动态展示。真正实现这一目标的是1968年的哈佛HMD项目,该项目的领导者是被誉为“计算机图形学之父”的伊万·萨瑟兰(Ivan Sutherland)。

萨瑟兰的项目受到了贝尔直升机公司的“夜间舵手”(Knighthelm)项目的启发。1963年,该公司制造了一款头戴式显示器,该显示器与红外摄像机相结合。摄像机安装在直升机底部,当飞行员转动头部时,摄像机会随之转动,并将拍摄的画面实时投影到显示器中,显示在飞行员眼前。这样,即使在晚上,飞行员也可以借助红外摄像机投射的画面在复杂地形中安全降落。

萨瑟兰对虚拟世界的向往源于他对数学的热爱。他认为,可以用计算机代替摄像机,这样就可以构建一个可视化的数学世界,从各个角度观察事物,复杂的形状就会变得通俗易懂。在他27岁时的一篇论文《The UlTIMate Display》中,他写道:

我们生活在一个物理世界中,通过长时间的熟悉,我们已经对这个物理世界的特性了如指掌。我们对这个物理世界有一种参与感,这种参与感使我们能够很好地预测它的特性。例如,我们可以预测物体会落在哪里,从其他角度看众所周知的形状是什么样子,以及在摩擦力作用下推动物体需要多大的力。

但我们对带电粒子的力、非均匀场中的力、非投影几何变换的影响以及高惯性、低摩擦运动缺乏相应的了解。与数字计算机相连的显示器让我们有机会熟悉物理世界中无法实现的概念。这是一个数学仙境的望远镜。

这个数学仙境的望远镜在1968年问世,巨大的传感器固定在天花板上,通过带有弹簧的管道与用户的头部相连。随着头部的转动,管道被拉伸的长度和旋转的角度经过矩阵转换后,可以由轴编码器(shaft encoder)和万向节(universal joint)测量出倾斜角和方向,从而确定用户头部相对于屏幕的位置,然后通过计算机实时渲染出当前3D物体应有的样子。而屏幕,或者说头戴显示器,由贝尔直升机公司提供,两个微型显像管经过光学系统的放大,可以在用户面前呈现出一个18英寸的虚拟图像,视野可达40°。由于整个装置的巨大,人们将其戏称为“达摩克里斯之剑”。

所有这些准备工作,最终使一个3D的环乙烷分子结构成功地呈现在用户面前。用户可以从任何角度,远近观察它。今天的观众可能对几百英寸的虚拟画面、宽视野、高清渲染习以为常,可能会对这个花费大量人力物力的哈佛项目只渲染出一个小小的3D分子感到失望。但是,请不要忘记,1968年仍然是一个原始的时代,不要说我们熟悉的多种GPU,就连万维网也要等到二三十年后才能出现。在这个艰难困苦的时代,这已经是一项伟大的成就。

“达摩克里斯之剑”项目之后,伊万·萨瑟兰退出了虚拟项目的研究,但这一趋势仍在继续。在学术界,弗雷德里克·菲利普斯·布鲁克斯(Frederick Phillips Brooks)等人继续研究,思考如何降低延迟、提高帧率。具有项目管理背景的读者不会对这个名字感到陌生,他是著名著作《人月神话》的作者。

军事领域,汤姆·福内斯(Tom Furness)正在进行“超级驾驶舱”项目。在他看来,现有的飞行舱是一个低带宽设备,限制了人与机器之间的传输。典型的战斗机驾驶舱有300个开关和75个显示器,操纵杆上有11个开关,油门上有9个开关。要在如此复杂的环境中实现紧急情况下的判断,对驾驶员的信息处理能力提出了极高的要求。真正需要改善的是新的交互方式。在“超级驾驶舱”项目中,福内斯创造了一个虚拟世界生成器,根据从数字总线上获得的飞行器矢量状态、位置、传感器图像和其他信息,从存储的地形数据库、数据链和信息描述库中提取选定的数据,合成人眼周围的虚拟世界。“超级驾驶舱”可以与信息决策系统结合,形成看门狗机制,根据飞行员在不同任务阶段对信息的需求,筛选、过滤并向飞行员发送信息。该项目经历了20多年,直到1986年才正式落地。随后汤姆离开了军事领域,来到华盛顿大学创立了HCI(人机交互中心),后来的虚拟视网膜显示屏和ARToolKit均出自该团队,他也被戏称为虚拟现实的祖父。

在工业界,1979年埃里克·豪利特(Eric Howlett)开发了LEEP光学系统,实现了宽视野的立体图像。当视野过小时,用户不会有

以上内容就是小编为大家整理的Apple Vision Pro_Apple Vision Pro 要上市了,来了解下它的前世今生全部内容了,希望能够帮助到各位小伙伴了解情况!

了解更多消息请关注收藏我们的网站(news.duote.com)。

举报
关注公众号“多特资源号”
内容来源于网络,不代表本站观点,侵删
热搜资讯