传感器上一个像素点的最终强度,是经过镜头平面到达传感器上该点光的总和
光场记录下每个u,v,及对应的x,y,也就能根据上面的转换公式,转换算出不同焦平面的光如果聚焦在传感器平面,对应像素点的强度值。
微透镜阵列的作用,就是让我们能够记录下u,v,x,y四维值。(好了,装X结束,其实我也不懂)。
这种微透镜阵列的方案,大体类似于在每个微透镜后面,用后面的像素为物体拍一张照片。多个微透镜的照片会可能重叠在同一个像素点上,后面通过数学方法可以分离。光场相机输出的照片的像素数,也就是微透镜阵列的总数。由于每个微透镜后面的照片视角略微有所不同,也就可以根据视差算出当前照片对应场景的深度图。
这种方式的光场照片,有3个主要的优势:
1。是可以重新对焦。这点前面已经说的比较多,也很好理解。不过佳能尼康几十点的高速相位对焦系统毕竟不是吃干饭的,先拍照后对焦对摄影师们意义不大。只有视频工作者,才会遇到手动追焦的情况,后期对焦或许可以解放追焦师。
2。N倍于普通镜头的景深。这点虽然Lytro宣传的不多,但很可能是最实用的地方。摄影时虚化背景通常很好看,但如果想要前后景都清晰,普通单反还真做不到,尤其是微距摄影。微透镜阵列的光场却刚好可以做到这点。不过这种图片从摄影角度并不受欢迎,但是工业图像检测等领域可能刚好需要。Raytrix一直选择的就是光场工业相机这个产品方向。
3.能够生成深度图。深度图的用途前面已经介绍过。虽然想象空间最大,但目前的Illum的深度图质量还不够。
除了并不算价值太高的优势,这样的技术方案有个致命的问题:
对大众而言,拍照画质极其重要,提升画质要么降低像素密度,要么提升分辨率。然而对Illum这类光场相机而言,如果降低像素密度,光场输出照片的分辨率会随之下降,而如果提升像素密度,CCD本身的成像质量会变差。可见无论通过这两种方式的哪种,都很难明显提升画质,直接导致产品在C端无法被接受。
此外,由于视差局限在微透镜阵列的尺寸大小,这种方案似乎并不能用于制作6自由度视频。
全景阵列
个人对Lytro Immerge的原理并不清楚,只是HyperVR的原理大概有所了解。HyperVR通过激光雷达采集环境的深度数据,匹配全景图片,让体验者有自由漫游的感觉。虽然现阶段数据量大,成本过高,至少这种技术看起来似乎还是有前景的。
以上是个人的一点拙见,欢迎大神批评指导~
本文来自电脑杂谈,转载请注明本文网址:
http://www.pc-fly.com/a/shumachanpin/article-52535-4.html
等着你们的舞台回归秀
雷达探测精度和灵敏度
直接击沉