你看到的“马云”是假的,不过三星这次倒是整了点真东西

你看到的“马云”是假的,不过三星这次倒是整了点真东西
2020年11月27日 10:43 前瞻经济学人APP

上周,Oppo在其未来科技大会上公布了全新卷轴屏产品,凭借其“圣旨”般的形态,解决了此前折叠屏手机存在的折痕和折损问题,可以说吊打了之前三星等一众厂商的折叠屏手机。

在手机外观越来越同质化的今天,除了在UI设计、软件功能上作出区分,正面屏幕的创新也十分重要,小米的alpha,华为的mate x和Oppo的新产品都有这种考量。

作为头部手机厂商,同时又是顶级屏幕制造商,三星在屏幕上做的文章可不比其他厂商少。

这不,就在本月,三星发布了一款超薄全息视频显示面板,成功在1厘米厚、10.1英寸的屏幕上投射出了30帧、4K分辨率的全息图。

虽然还不具备直接利用价值,但它却为商业化移动全息显示器带来了更多可能。

将拍扁的人立起来

全息显示在许多影视作品中都有直观的展示,比如:

电影《普罗米修斯》中使用全息投影为众人讲解的彼得·维兰德

维兰德就是电影里向外星人要求永生最后被掐死的那个老头。

从上图的显示效果可以看出,成熟的全息显示应具有以下特点:

显示物应具有完全立体特点

观众看无需借助任何外部设备

光学部件及占用空间小

全息显示最早由匈牙利裔英国物理学家丹尼斯·伽博(Dennis Gabor)于二战后发明,1947年取得专利,隔年又发表了论文,又在1971年因此获得了诺贝尔奖。

从上面的例子看出,全息图像相对于普通照片,其形象是立体的,传达的信息更全面。全息二字可以理解成“全部的信息”,具体来说,它指振幅和相位。

可见光本身是一种电磁波,频率范围在3.9×1014~7.5×1014Hz之间。光波中存在三个重要元素:波长、振幅和相位。其中:

波长反映光的频率,人眼感官为色彩

振幅反映光的强弱,人眼感官为明暗

相位反映光的形状,人眼感官为立体

相位即是光波在前进过程中光子振动所呈现的交替的波形变化,类似于正弦和余弦函数图像。

在这三个元素中,目前人类已经实现了第二个。你可以用手机随便拍一张照片,你会发现照片中存在色彩和明暗,但是图像却是平面的。

全息要做的,就是在振幅的基础上,再实现立体,也就是记录相位。

全息技术的实现,实际上就是实现这一过程:记录光波信息,然后通过空间光调制器(用于信号转换),来「读出」光波信息,最后将处理过的光波传送给人眼。

为了能够在照片中记录相位信息,我们需要用到参考光进行干涉。

什么叫干涉呢?

首先,我们定义两束光:物体反射的光叫物光(红色),用来干涉的光叫参考光(绿色)。图示如下:

(黑色表示目标物体,字和画不是重点)

我们上面提到,相位是一种波形变化。当两个光交替时,那么相位就会相互叠加干涉,就像水中两个相遇的涟漪一样。

这两个涟漪的强度相同时,双方叠加后(相交点上的波)就会抵消消失;如果不相同,那么波就会继续向着弱势的一方移动。

同理,通过观察两束光相遇后波的状态,我们就可以得知其中一方的频率和振幅信息。

当然,参考光不是随便找的,其频率和振幅必须是已知的,而且两束光的频率必须相同,相位差要恒定,振动方向也要一致。

这一方案的本质是用参考光将物体光束的相位通过光强的形式记录下来。而要读取这些信息,只要保持参考光束不变照射在图像上,就可以还原出物体的样子。

完整的图示过程(图源:百度百科)

当然,除了利用干涉光成像,还有数字全息技术和计算全息技术。

前者相对于上面的干涉光成像来说,原理是一样的,只不过将底片换成了传感器。

后者则完全抛开了干涉图的记录过程,直接使用计算机计算光场。

上面的这几种方法,都需要额外设备或者大量运算,并且只能生成静态的图像。

最让人期待的移动全息视频显示器实现难度很大,这一次三星提出的方案就是要解决这一难题。

既是全息的一大步,也是移动端的一大步

三星跨出的这两步,一是视角、分辨率和体积的一大步;二是移动端应用的一大步。

先上一张图,这是此次三星达到的效果:

手机拍摄的全息显示效果(图源: Nature Communications)

可以看到,这基本达到了我们在科幻电影中看到的效果,人手(真实图像)和仙女(虚拟图像)距离镜头都是30厘米,二者都拥有虚化效果。当然,图像背后还是有显示屏的。

关于实现全息视频显示器的难点,三星的研究人员表示主要有三:

空间带宽积(SBP),SBP表示成像系统所传递的信息量,简单来说就是看到的空间范围;

需要复杂的光学部件和相当大的空间来操纵光线 ;

对处理器的计算能力要求高。

三星表示此次解决了上述所有三种问题。

全息视频显示器结构(图源:Nature Communications)

这个显示器系统包括光学组件(光束偏转器、相干背光单元和几何相位透镜)、全息视频处理器板、空间光调制器、电源连接器和其他杂项组件。

SBP没有单位,可以用W×θ=λ×N这个方程来表示,其中W为图像尺寸,θ为视角,λ为波长,N为像素数。

可以看出,在像素数一定的情况下,全息图像的尺寸和视角此消彼长。例如,在1080P分辨率下,10英寸屏幕上的全息图像可视角度只有0.25度,而30英寸时只有0.1度。

这种尺寸和视角根本无法满足观看体验。因此,我们可以在像素上下功夫。不过,根据此前的研究显示,要在10英寸屏幕上实现30度的视角,那么分辨率必须达到221K,而国内目前连2K都还没普及呢。

此外,这种级别的分辨率需要极大的运算量,根本无法在移动端实现。

为了解决这一问题,三星加入了转向背光单元(S-BLU)来保证图像尺寸、视角和像素。

S-BLU 是扩大全息显示器视角的关键组件。在传统的光束转向中,受集光率限制,最大转向角会随着光源面积的增加而减小。

而在这一系统中,研究人员将红光和绿光的第一波导和蓝光的第二波导叠加在一起,成功解决了集光率问题,增大了显示器的可视角度,使其达到了30度。

在光学部件和空间方面,三星的这一显示器也做得不错。和最前方厚度为1厘米,大小为10英寸的屏幕相比,光学部件体积并不大。

全息视频处理器采用单芯片 FPGA 构建,具有布线资源丰富,可重复编程和集成度高,投资较低的特点。

该处理器实现以每秒 30 帧(fps)的速度生成 3840*2160 像素的双目全息彩色图像。

最为重要的是,研究人员在系统总线中还考虑到了智能手机的兼容性,使用了第四代通用接口规范。

我们猜测,这或许是三星在手机上实现全息显示功能的前瞻布局。

三星还放出了一段演示视频用来“炫技“:

全息视频演示 (图源:Nature Communications)

画面中,珊瑚和假山都是真实存在的,而屏幕中的画面则是虚拟的。更重要的是,由于所有物体相距人眼的距离不同,全息物体的锐度会随着相机焦距的变化而变化,聚焦时,图像会变得非常清晰,这和普通的3D显示器是不同的。

李逵难见,李鬼横行

在影视作品中,全息图像可以直接在空气中显示。毫无疑问,这种技术更为高级,它直接把空气作为显示屏。

这一技术虽然美好,但却很难实现,因为我们无法控制光在空气中显示的长度来实现立体感。

不过,也不是完全没有希望。2015年,韩国研究人员在实验室中利用高性能彩色激光制造出世界首例 360 度彩色全息图。虽然演示影像只是一个彩色魔方,但却动用了 16 个不同领域的科研人员花了 2 年时间,且耗资不菲。

但是,我们在生活中又常常听到“全息”两个字,比如在演唱会上出现的虚拟偶像以及今年7月在世界人工智能大会上出现的虚拟马云。

马云在世界人工智能大会的“全息”演讲

虽然套用了全息二字,但其实他们只能算是伪全息。

实现这种全息显示并不难,只要用好佩珀尔幻象即可。

佩珀尔幻象演示(图源:wikimedia)

最原始的佩珀尔幻象需要表演者躲在舞台下面进行真实表演,通过光将其影像投射到放置在舞台上的玻璃中。

随着技术的发展,这里的玻璃已经换成了全息膜,并且在舞台灯光的干扰下,观众很难发现全息膜的存在。

同时,录像技术出现后,也不再需要表演者藏在暗处进行实时表演。将提前拍摄的录像投射即可。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部