timy555000 wrote:
翻譯如下:樓主問到一...(恕刪)
關於這幾段話,有些地方小的覺得哪裡怪怪的。
"意即,本來有一些光線的,在底片上可能卻無法感光,或者是本來有某些顏色的,在底片上卻無法感光。諸如此類的污染。因此最後的成像實際上是有了一種“色階壓縮”的效果,即黑色被記錄成深灰色,白色被記錄成淺灰色,RAW原片往往看起來髮灰,就是這個原因。"
感光元件能感應的動態範圍(dynamic range)有限,比底片小,比真實場景人眼所見更小。
黑色被紀錄成深灰色,白色被紀錄成淺灰色,應該不會發生在底片或是感光元件紀錄的當下。
相反的,原來場景的淺灰色可能被紀錄成白色,而原來的深灰色被紀錄成黑色。這就是所謂的動態範圍。
這不叫做色階壓縮,這叫做動態範圍不足。
色階是指中間色的綿密性,動態範圍是能夠捕捉到的光線從最暗到最亮的差異。
RAW原片看起來比洗出來的底片或是相機直出的JPG來的髮灰,並不是因為色階壓縮造成,而是因為色階曲線是一直線。
底片或後製或相機直出JPG都對色階曲線進行了調整,把原來的直線改成接近人眼感受的曲線,升高中間色以及暗部的對比,壓縮亮部的對比,讓相片好看很多。
”由於色階壓縮的影響,實際上,標稱14bit的CMOS,往往可能只能利用到10bit以下的色階。“
這句話我也想不通,現場光的色階通常是綿密無限的,為何14bit只能用到10bit?
就算鏡頭和微透鏡會阻擋掉一些顏色的光,剩下來感光元件接收到的顏色還是遠比14bit來的多,14bit只能用到10bit實在令人不解。
當然,螢幕的輸出只有8bit,14bit的色階量最後都會在輸出時剩下8bit。可是在後置時,14bit可以忍受較大的調整而不失真。
已实际环境做例子,现场的光线从0线性增加到255,被CMOS记录了6个点,即30,70,110,150,190,230,那么原片看起来肯定是发灰的,因为已经丢弃了0-29和231-255的色阶。那么再经过auto level扩展到0-255,那6个点的色阶变成了0,51,102,154,205,255。
这时照片看起来就通透多了。但大家注意到没有,6个点之间的亮度差异变大了。
因此原来我们肉眼看起来觉得连续的亮暗过渡,现在也许就不再那么连续了。
以上就是所谓的色阶连续问题。
這段也有點看不懂。
真實場景的”0-255“,CMOS無法分出最暗部和最亮部的細節,被CMOS紀錄下30,70,110,150,190,230六個點後,原片看起來並不肯定是髮灰的。
因為CMOS把真實場景的230-255紀錄成255(全白),
把真實場景的0-30紀錄成0(全黑)。
原來的六個點紀錄成0,51,102,154,205,255,
CMOS的解讀還是從全黑到全白(跟auto level是一樣的意思)。
小咕弟 wrote:
這段也有點看不懂。真...(恕刪)
我覺得似乎是用語不夠精確的問題....
我猜本來意思可能是這樣
假設adobeRGB色域裡面. 某個純色可以達到彩度假設100好了
但當相機使用adobeRGB色域的時候
實際上達到該彩度的物件. 相機卻沒辦法紀錄下來
假設相機實際上可以紀錄到該純色的彩度90分. 那90-100這段就等於沒有細節
或也有可能相機實際上是把90分以後的彩度通通都當成100來紀錄了
如果90分以後的部分都當成90分. 那色彩並沒有頂到adobeRGB色域裡該純色的極限
所以處於低對比的狀態
如果90分以後的部分都當成100分. 就等於把上述狀況的對比調高
(即auto level)
兩者實際上在90-100這個區間都是沒有訊息被紀錄的
但後者一般比較不容易被察覺
-
這有點像動態範圍與位元深度的關係
位元深度是關聯於儲存格式. 表示可以裝多少資料在裡面
但實際上相機能抓到多少資料放進來. 是決定在像機的動態範圍表現上
-
今天你被迫照了一張曝光不足的照片,最高曝光僅有極值的 1/8;
然後你為了要讓她看起來正常...於是用後製把亮度拉高 8 倍。那接下來的狀況就會出現:
1.假如相機感光元件有12bit (4096階),但你當初曝光只用了底下的9bit (512階),因此拉高亮度後,你的色階依然只有9bit (512階)。
2.假如相機感光元件有14bit (16384階),但你當初曝光只用了底下的11bit(2048階),因此拉高亮度後,你的色階有11bit(2048階),勉強堪用。
又或者,你逆光拍了一張對比非常低的照片,因為雜散光的原因,你整張照片的曝光量都位於感光範圍中間的1/8以內,所以後製時你拉高對比,希望可以讓她看起來不那麼"逆光"一點,但是因為原始資料量依然是只有9bit或11bit那麼多,所以你又失去了8倍(3bit)的色階。
最後,縱合了所有原因,包括不同顏色,燈光,鏡頭,機身特性,感光元件,後製技術等等差異;某些情況下,我們照到的色階資訊太少,後製後每一個"被放大了的顏色差異"卻超出了人眼可以辨別的最小下限。於是我們看到了某樣顏色分佈應該連續的東西,卻呈現一格一格的...或一條一條的....這就是色階不連續了!
舉個最常見的例子,拍夕陽時的天空!因為亮度不算太高,又逆光,我們又想要拍出夕陽以外的景物細節,於是掙扎了半天,從拍攝時的快門光圈感光度,到後製時的拉高對比,調高亮度OOXX...最後天空還是會出現一條一條的色階不連續紋理!這也是為何有人喜歡拍攝HDR照片的原因了,正是因為那個情景下相機的色階解析力不足,所以才要用不同曝光值的許多張照片,去湊出更寬廣的色階細節。
其實,是游向大海的海龜,海放了在陸地上,孤單的我們
關閉廣告