開版大問到我想問的問題了...

這邊也要感謝一下

色階(tonal range)是指光從全黑到全白有多少的中間階調,比如說白色,淺淺灰色,淺灰色,灰色,深灰色,黑色,這樣有六個階調。所謂8bit的色階就是由白到黑可以分成2的八次方=256種不同階調(tone)
所謂12bit就分成了4096種階調,14bit分成16384種中間色。
自然光的色階是連續而無限的,數位捕捉後則成為有限的色階數量。
色階數變少就是所謂的”色階壓縮“。
因此,自然光數位化後色階壓縮了一次,如果原來照14bit後來處理成8bit的TIFF檔,又壓縮了一次。
想知道色階壓縮的效果,最簡單的方法就是把你的螢幕設定調成256色,馬上就可以理解了。

akihindo wrote:
想額外請教一下,專業底掃的sensor是否跟大部分數位相機的MSK sensor不同呢
因為即使底片經過掃描成了數位化的照片,還是覺得比數位相機拍出來的色階漂亮


確實不一樣
底掃通常用RGB三線線形CCD.
它分成RGB掃描後. 就可以得到每個像素完整的色彩資訊
而不是像數位相機使用mosaic CCD再運算才得到色彩
timy555000 wrote:
翻譯如下:樓主問到一...(恕刪)


關於這幾段話,有些地方小的覺得哪裡怪怪的。

"意即,本來有一些光線的,在底片上可能卻無法感光,或者是本來有某些顏色的,在底片上卻無法感光。諸如此類的污染。因此最後的成像實際上是有了一種“色階壓縮”的效果,即黑色被記錄成深灰色,白色被記錄成淺灰色,RAW原片往往看起來髮灰,就是這個原因。"

感光元件能感應的動態範圍(dynamic range)有限,比底片小,比真實場景人眼所見更小。
黑色被紀錄成深灰色,白色被紀錄成淺灰色,應該不會發生在底片或是感光元件紀錄的當下。
相反的,原來場景的淺灰色可能被紀錄成白色,而原來的深灰色被紀錄成黑色。這就是所謂的動態範圍。
這不叫做色階壓縮,這叫做動態範圍不足。
色階是指中間色的綿密性,動態範圍是能夠捕捉到的光線從最暗到最亮的差異。

RAW原片看起來比洗出來的底片或是相機直出的JPG來的髮灰,並不是因為色階壓縮造成,而是因為色階曲線是一直線。
底片或後製或相機直出JPG都對色階曲線進行了調整,把原來的直線改成接近人眼感受的曲線,升高中間色以及暗部的對比,壓縮亮部的對比,讓相片好看很多。

”由於色階壓縮的影響,實際上,標稱14bit的CMOS,往往可能只能利用到10bit以下的色階。“

這句話我也想不通,現場光的色階通常是綿密無限的,為何14bit只能用到10bit?
就算鏡頭和微透鏡會阻擋掉一些顏色的光,剩下來感光元件接收到的顏色還是遠比14bit來的多,14bit只能用到10bit實在令人不解。

當然,螢幕的輸出只有8bit,14bit的色階量最後都會在輸出時剩下8bit。可是在後置時,14bit可以忍受較大的調整而不失真。
已实际环境做例子,现场的光线从0线性增加到255,被CMOS记录了6个点,即30,70,110,150,190,230,那么原片看起来肯定是发灰的,因为已经丢弃了0-29和231-255的色阶。那么再经过auto level扩展到0-255,那6个点的色阶变成了0,51,102,154,205,255。
这时照片看起来就通透多了。但大家注意到没有,6个点之间的亮度差异变大了。
因此原来我们肉眼看起来觉得连续的亮暗过渡,现在也许就不再那么连续了。
以上就是所谓的色阶连续问题。


這段也有點看不懂。

真實場景的”0-255“,CMOS無法分出最暗部和最亮部的細節,被CMOS紀錄下30,70,110,150,190,230六個點後,原片看起來並不肯定是髮灰的。
因為CMOS把真實場景的230-255紀錄成255(全白),
把真實場景的0-30紀錄成0(全黑)。
原來的六個點紀錄成0,51,102,154,205,255,
CMOS的解讀還是從全黑到全白(跟auto level是一樣的意思)。

小咕弟 wrote:
這段也有點看不懂。真...(恕刪)


我覺得似乎是用語不夠精確的問題....


我猜本來意思可能是這樣

假設adobeRGB色域裡面. 某個純色可以達到彩度假設100好了
但當相機使用adobeRGB色域的時候
實際上達到該彩度的物件. 相機卻沒辦法紀錄下來

假設相機實際上可以紀錄到該純色的彩度90分. 那90-100這段就等於沒有細節

或也有可能相機實際上是把90分以後的彩度通通都當成100來紀錄了


如果90分以後的部分都當成90分. 那色彩並沒有頂到adobeRGB色域裡該純色的極限
所以處於低對比的狀態

如果90分以後的部分都當成100分. 就等於把上述狀況的對比調高
(即auto level)

兩者實際上在90-100這個區間都是沒有訊息被紀錄的

但後者一般比較不容易被察覺



-
這有點像動態範圍與位元深度的關係
位元深度是關聯於儲存格式. 表示可以裝多少資料在裡面

但實際上相機能抓到多少資料放進來. 是決定在像機的動態範圍表現上
-
erir wrote:
色階連續呢?


分享一下

抱歉,用了之前的人的圖,請見諒

其實可以看一下色階圖,就很可以很明白色階連續的問題..





在修一下
erir wrote:
請問各位大大常常聽許...(恕刪)


在這麼多高手回答你的問題後~啥是色階~相信你應該看得很明白~

但是~你還是可以自己做點實拍的動作~~
在你自己房間~~拉上窗簾~拍逆光的窗簾~波浪狀的窗簾~很容易表現立體感~~
試著用正片~負片~數位~各洗一張照片~~看看誰的波浪弧形表現的最好~~誰的波浪感覺最平~~
你就知道~誰的色階最柔順最完整~~

數位化表現多少階~~那都指是最後完成品上的一個表現~~
從工具感受到光線作用~到作品完成的過程中~
哪種工具能保留最多的色階~這才是關鍵~~
再簡單化一點來說的話,舉個實際例子:

今天你被迫照了一張曝光不足的照片,最高曝光僅有極值的 1/8;
然後你為了要讓她看起來正常...於是用後製把亮度拉高 8 倍。那接下來的狀況就會出現:

1.假如相機感光元件有12bit (4096階),但你當初曝光只用了底下的9bit (512階),因此拉高亮度後,你的色階依然只有9bit (512階)。
2.假如相機感光元件有14bit (16384階),但你當初曝光只用了底下的11bit(2048階),因此拉高亮度後,你的色階有11bit(2048階),勉強堪用。

又或者,你逆光拍了一張對比非常低的照片,因為雜散光的原因,你整張照片的曝光量都位於感光範圍中間的1/8以內,所以後製時你拉高對比,希望可以讓她看起來不那麼"逆光"一點,但是因為原始資料量依然是只有9bit或11bit那麼多,所以你又失去了8倍(3bit)的色階。

最後,縱合了所有原因,包括不同顏色,燈光,鏡頭,機身特性,感光元件,後製技術等等差異;某些情況下,我們照到的色階資訊太少,後製後每一個"被放大了的顏色差異"卻超出了人眼可以辨別的最小下限。於是我們看到了某樣顏色分佈應該連續的東西,卻呈現一格一格的...或一條一條的....這就是色階不連續了!

舉個最常見的例子,拍夕陽時的天空!因為亮度不算太高,又逆光,我們又想要拍出夕陽以外的景物細節,於是掙扎了半天,從拍攝時的快門光圈感光度,到後製時的拉高對比,調高亮度OOXX...最後天空還是會出現一條一條的色階不連續紋理!這也是為何有人喜歡拍攝HDR照片的原因了,正是因為那個情景下相機的色階解析力不足,所以才要用不同曝光值的許多張照片,去湊出更寬廣的色階細節。




其實,是游向大海的海龜,海放了在陸地上,孤單的我們
tomzhu wrote:
楼主问到一个比较关键...(恕刪)
哇哇!
精湛、詳細的分析,
讓我對色階也有了新的認識,
感謝、感謝啦!
關閉廣告
文章分享
評分
評分
複製連結

今日熱門文章 網友點擊推薦!