本文是一片将会长期进行更新的文章,其内容会随着学习进程的深入而增加和修改,目的是帮助自己在学习摄影,调色,剪辑等知识的同时能够总结学到的内容,并将自己所收获的东西也一并分享给各位。

作为一个没有任何基础但却对用镜头记录世界怀抱热情的人,我希望自己能像当初朝着成为音乐制作人迈出第一步并一直走到今日一般,对摄影与后期秉承相同的态度去学习与实践,并无限进步。

关于我自己使用的硬件与软件:

  • 拍摄设备:iPhone 17 Pro Max
    • 拍摄平台:Blackmagic Camera / 飓风相机
  • 稳定器:DJI Osmo Mobile 8 手机稳定器
  • 后期设备:Mac Studio
    • 软件平台:DaVinci Resolve / Final Cut Pro

目前我会优先专注于掌握使用手机拍摄视频,在掌握并做出一些还不错的成片后,我会考虑购买相机去进一步探索该领域。当前文中信息的第一参考来源是影视飓风的课程:“只看8节课,用iPhone拍出电影感”。部分信息的延伸会使用如Gemini等生成式人工智能帮助我进行学习。我会对生成式人工智能所给予的信息进行手动的核对与验证,尽可能确保准确性。若出现任何疏漏,还请各位多多指正并辩证的去阅读。

未来有任何新的信息来源,我会一并在文章的开头声明。


前置基础知识

数据类型与文件格式

先来看我模拟的这样一段对话。


剪辑室里,导演对着调色师说:

“‘A机位’素材是 ProRes RAW,‘B机位’素材是 10-bit Log。你先把那个LUT应用到所有Log素材上,把它从 Log 空间转换到 Rec.709,我们先看看正常的色彩。”

调色师操作后,导演皱了皱眉:“太干净了。把‘B机位’的素材换成 ProRes 422 代理文件,我们开始剪辑。剪辑完成后,你再套上那个‘胶片模拟’的创意 LUT 看看效果。”

剪辑完成后,调色师说:“最终母版我将导出为 ProRes 4444。至于预览,我会压缩成一个 50Mbps 的 H.265 文件,再单独压一个兼容性更好的 H.264 版本。”


  1. LUT是什么?

LUT是Look-Up Table的缩写。在视频拍摄和后期制作中,LUT本质上是一个色彩转换的“说明书”或“预设”,其在视频工作流中扮演两个关键角色:把摄像机拍下的“原始”Log 灰色素材翻译成显示器能看懂的标准彩色画面,以及在标准画面的基础上套用一个特定的色彩配方,让画面呈现出想要的电影感或艺术风格。

你可以把它想象成一个极其精确和高级的滤镜。它定义了“输入的某个特定颜色”应该被“转换成哪个输出颜色”。它不是简单地叠加一个效果,而是对视频中像素的颜色值进行精确的数学映射。

LUT的主要类型有两种,1D LUT和3D LUT。1D LUT比较简单,它只能独立控制红、绿、蓝(RGB)三个通道的数值,无法精确处理不同饱和度和色相的组合;3D LUT是视频领域最常用、最强大的类型。它使用一个三维的色彩立方体(Color Cube)来进行映射,可以同时控制色相 (Hue)、饱和度 (Saturation) 和亮度 (Luminance)以进行极其复杂和精确的色彩转换。举例来说,它可以精确地定义“把画面中所有低饱和度的绿色,在保持亮度不变的情况下,转换成高饱和度的青色”,而 1D LUT 无法做到这一点。

  1. Log是什么?

Log 是一种编码光线的伽马曲线(Gamma Curve / Transfer Function),其目的是压缩动态范围。更具体的说:有限的数据空间内把传感器线性的光能分布压缩,使高光不过曝、暗部不过黑,以记录尽可能宽广的动态范围。Log 主要指 γ 曲线,但通常和该品牌的色彩矩阵一起构成完整的 Picture Profile。Log的对数曲线的设计是为了把高光区间“压缩”进有限码值,从而扩大动态范围。Log拍摄的原始素材看起来都是“灰蒙蒙”的,需要后期调色来还原色彩和对比度并进行风格化处理。主流相机品牌多数有自家独特的 Log 格式,针对自家传感器的特性进行优化。不同公司的 Log 格式实现之间没有统一的原则,互不兼容。

这里重点说一下我会使用的Apple Log,其仅在 iPhone 的 ProRes 模式下可用(ProRes 422 系列)。HEVC 不支持 Apple Log。

  1. RAW,ProRes,H.264/265等概念是什么?

RAW是一种数据类型,但不同的厂家也会使用不同的RAW格式。所有 RAW 都是“数字底片”,但每家底片的成分和显影方式都不一样。RAW 是传感器逐像素采样的电荷读数(数码底片),通常为单通道 Bayer Pattern 数据。RAW文件必须经过一个叫做“显影”或“Debayering”(去拜耳化)的过程,才能转译成我们能看到的彩色图像。Raw的后期调整空间灵活。RAW 允许你在后期灵活调整曝光增益与白平衡,但由于其为原始数据会有很大的体积,也要求电脑需要强大的性能来实时“显影”这些数据。

ProRes是一种编解码器,用于压缩“已成型”的图像。相机默认直出的 H.264/H.265格式虽然文件小,但压缩得太“狠”了 (Inter-frame 压缩),电脑剪辑时需要“解压缩”,导致性能低下、卡顿。ProRes 使用Intra-frame压缩,压缩率较低文件更大,但剪辑起来极其流畅。其核心用途为剪辑性能而生。ProRes(4444/422) 文件里存的是已经“显影”好的图像。相机的白平衡、ISO、曝光、以及Log曲线(如 Apple Log, S-Log3)已经烧入了图像。你可以在后期对 ProRes (Log) 文件进行调色,但不能像处理 RAW 那样去显影,也就无法在后期无损地更改白平衡。这里值得注意的是:ProRes RAW 与普通 ProRes 不同,它是 RAW 数据,不是“显影后”的图像。

H.264 全称 Advanced Video Coding(AVC);H.265 全称High Efficiency Video Coding (HEVC)。它们是目前世界上最流行、最广泛的编解码器。其的核心目标是在尽可能保持高画质的前提下,把视频文件变得尽可能小,以便于存储和在互联网上传输(串流)。H.265 的压缩算法比 H.264 先进,在相同画质设定(PSNR/VMAF)下H.265 相比 H.264 能节省 30–50% 码率。

  1. Rec.709是什么?和它关联的概念又有哪些?

Rec.709 正式名称是ITU-R Recommendation BT.709,是一种高清电视统一标准。其主要定义色彩空间(Color Gamut)和伽马曲线(Gamma Curve)。Rec.709 是 SDR 常用的色彩空间之一,SDR的概念则包括色彩空间(如 Rec.709)、EOTF(BT.1886),亮度标准等。

相对SDR而言,HDR则是一系列新技术的总称,目标是超越SDR标准创造出更接近人眼所见的、更逼真的图像。举例来说,BT.709 传统 SDR 的参考峰值亮度约为 100 nits,而 HDR 显示器可以达到 1000 nits甚至更高。HDR也使用了更广的色域,主要是 Rec.2020。所有 HDR 内容色彩深度都必须是 10-bit 或更高 (如 12-bit),这意味着HDR 可以显示更多、更饱和的颜色,例如 Rec.709 无法准确显示的法拉利红、可口可乐红、或霓虹灯的绿色。但实际很多显示设备无法完全覆盖 Rec.2020,所以常见 HDR 屏幕色域覆盖要更为接近 DCI-P3。

细分HDR的几个主要的“流派”,它们使用了不同的EOTF。这里介绍三个HDR标准:

  • HDR10:基础通用的开放标准,允许你为整个影片设置“最大亮度”。
  • Dolby Vision (杜比视界):杜比专利标准,允许你逐个场景甚至逐帧调整HDR元数据。
  • HLG (Hybrid Log-Gamma):专为电视广播(如体育直播)设计的标准。
  1. 概念关联

从拍摄到出片的几个中,以上的概念都会出现。

  • 采集:使用支持 Log 的设备拍摄视频。
  • 编辑:可以把 Log 素材转码成 ProRes 以流畅剪辑。
    • 如果使用Apple Log,则采集时已封装在 ProRes 编解码器中,无需转码。
  • 交付:SDR或HDR。
    • 选择SDR:把 10-bit Log 素材通过LUT “压缩” ,丢弃了 Log 里的高光和色彩信息,只保留了 Rec.709 “小盒子”里的内容。最终导出为 H.264 (8-bit) 文件,兼容在任何设备上播放。
    • 选择HDR:把 10-bit Log 素材通过调色映射到 HDR10 或 Dolby Vision 标准。保留Log里高光和宽广的色彩。最终导出为 H.265 (10-bit) 文件,用于在支持HDR屏幕上观看。

亮度基础概念

人眼能在极亮和极暗之间快速适应,但相机不能。相机只能容纳一个有限的亮度区间,称为动态范围(Dynamic Range)。

动态范围越大说明:最亮的可记录细节(不爆)和最暗的可记录细节(不黑)之间的“可容纳距离”越宽。

如果超过这个范围,画面就会出现以下现象:

  • 过曝(Overexposure)/ 高光溢出(Clipping)
  • 死黑(Crushed Shadows)

相机所感知到的亮度是光圈,快门和ISO三者综合作用下的结果。

  • 光圈 Aperture
    • 光孔大小。越大进光越多。
  • 快门速度 Shutter Speed
    • 曝光时间长短。越慢进光越多。
  • ISO
    • 传感器对光的“增益”。越高越亮,但越噪。
    • 如果亮度超出相机能容纳的范围,就会“爆”。
      • 传感器每个像素只能记录到某个最大电荷量。
      • 超出这个量 → 电荷溢出 → 全部变成纯白 → Clipping。

一些相机上可以提示你即将出现过曝时会出现的现象有:

  • Zebra(斑马纹)
    • 当画面某个区域亮度超过你设定的阈值,比如 95% → 就显示条纹。它本质上是一个过曝警告器。
    • Zebra 会根据 IRE 判断哪些地方亮度太高。
      • IRE 是视频亮度的刻度单位(0 = 黑,100 = 白)。

一个可以帮助减少进入镜头的光量,但不改变颜色来避免过曝的手段是Neutral Density Filter。


(未完待续)