D700選單裡RAW 12位元-bit與RAW 14位元-bit的差別

hsu4886 wrote:
不過在PS裡全黑到全白不是只有256階嗎


PS 只到 256 是因為一般全彩圖片都是用 8 bit 深度
位元深度愈高,用來表示相同範圍的東西,精細度就會愈高
由於數位化的色彩,其色彩衍繹並不是線性的 (也就是不連續,現實的色彩變化是連續的)
所以如果某個色彩並不是該位元深度能表示的數值
例如 R104.1, R104.4...等等會以 R104 來代替
因為 8 位元深度並無法表示如此精細的數值(事實上顏色不以浮點數表示)
這樣一來,有些色彩在數位化之後會因為被相似色彩取代
而造成畫面有不連續的感覺
若把位元深度加深,也就是增加其精細程度
色彩被取代的程度就愈低,看起來的畫面就愈接近真實情況
8 bit 是將全黑到全白分成 256 階段 (2^8 = 256)
12 bit 則可以分成 4096 階段 (2^12 = 4096)
14 bit 則高達 16384 階段 (2^14 = 16384)

8 bit RGB 三色合起來就是可以做出 24 bit 的顏色組合 (16,777,216 即 16.77M)
12 bit 則可組合出 68.7G 的色彩變化 (68.7G=68700M)
14 bit 則可組合出 4.398T 的色彩變化 (4.398T = 4398G = 4398000M)

能表示的顏色數量愈多,畫面就愈精緻

timecapsule wrote:
PS 只到 256 ...(恕刪)

8 bit RGB 三色合起來就是可以做出 24 bit 的顏色組合 (16,777,216 即 16.77M)
12 bit 則可組合出 68.7G 的色彩變化 (68.7G=68700M)
14 bit 則可組合出 4.398T 的色彩變化 (4.398T = 4398G = 4398000M)

能表示的顏色數量愈多,畫面就愈精緻


很可惜的是這個依舊只是理想狀態,實際上目前相機用的CMOS感光元件是以Bayer filter來設計。


以D700或是C家5D2等級的感光元件都是用這種排列方式,基本上每個獨立像素都是用程式碼去參考隔壁的像素值來決定本身像素所缺少的另外二個色光數值,而這種方式不管你相機內建多大bit深度的色階都還是會出現色階斷層,因為我們生存的世界是個弧形的3D空間,而相機的鏡頭也是弧形而不是全平面,也就是說除非感光元件改用像Sigma的Foveon X3感光元件,每個獨立的像素都各自接收三原色色光值,這樣出來的結果才可能更進一步解決色階不連續的問題。

Canon EOS 500N + EF 35-80mm F4-5.6 Canon EOS 300D EF 28-105mm F3.5-4.5 EF 50m

hoyaani wrote:
很可惜的是這個依舊只...(恕刪)


嗯~說的真好
小弟又上了一課
難怪sigma sd1敢開20幾萬..
感光源件大勝
對於14bit RAW小弟尚有疑問:
很多人都說現階段一般常見的顯示器都支援不到, 根本看不出跟12bit的差異
也就是說, 拍了張幾乎丟失細節的照片, 例如接近死黑跟死白, 在一般的螢幕上就是看不出用14bit拍的優勢嗎?

承上, 在這種螢幕下作後製, 要把這種近死黑或死白的照片救回來, 14bit RAW也沒有優勢嗎??
CMOS A/D轉換14bit -> Photoshop/Lightroom 16bit -> 8bit/10bit 顯示器。
因為無論如何最終需轉換成8/10bit輸出至螢幕,這時候原始資料越豐富,轉成8bit/10bit的效果越好,有點像一般錄音室採48K Hz取樣,然後降成44.1K Hz做成CD的意思。 雖然12bit轉8bit看似相當充足,但是當後製時(例如拉飽和度)常常會有掉階的情況發生,這時如果用14bit就比較耐操,惡搞後再轉成8bit也比較不會有明顯缺點。

雲師兄 wrote:
對於14bit RA...(恕刪)


螢幕好壞差很多,一個專門用來修圖的螢幕跟一個普通電腦螢幕,

專門一點的螢幕用久之後,用到一般螢幕時就會不知不覺在哭么,

這螢幕是不是壞掉?怎這麼爛~

雲師兄 wrote:
要把這種近死黑或死白的照片救回來, 14bit RAW也沒有優勢嗎??
(恕刪)


似乎把感光元件動態範圍跟色彩位元深度混在一起了

kuangtian27 wrote:
請問D700選單裡RAW 12位元-bit與RAW 14位元-bit的差別在哪兒呢?

(恕刪)


我覺得大概可以分兩個角度來討論

"工程科學上" EX: 14bit能調整幅度是否遠大於12bit?
"大腦視覺上" EX:人眼是否有辦法分辨如此多顏色?

我想可以討論的點太多...

但我簡單的想法...就是取決於你最終端要如何展示作品再來決定要採用什麼方式處理...
(好比aRGB肯定比sRGB能有更大色域,but現階段正常多數人螢幕根本不支援)

那我今天照片只是要丟在社群上給大家做紀念那我會考慮使用12bit
但此張照片我或許有打算輸出30x20inch照片我就考慮用14bit
(其實我肉眼根本分辨不出來...但此考量最終都會被記憶卡很便宜推翻....)

以上大概只是個人使用經驗
並非什麼很專業理論,敬請大師開示~~~
cchjack wrote:
對 我拍晨昏時12bit也會,改成14bit後斷階現象改善許多!

(恕刪)


請問大大您們"斷階"現象是如何判斷?

是由色階圖還是肉眼上?還是有專門分析軟體去跑??

不過我好奇的是同一張照片放在三塊不同螢幕(非專業螢幕)
不知道斷階程度會不會有極大落差? (暗處雜訊飽和度對比度這些肉眼上應該就很明顯了...)


hsu4886 wrote:
我D700用12bit拍晨昏某些狀況容易有奇怪的斷階
(但JPG又沒有)
(恕刪)


若此段話成立,或許可以下一個小結...

斷階現象與位元深度無極大關係,但或許與檔案儲存格式有極大關係

但這樣感覺上又怪怪的...XD

.stick. wrote:
請問大大您們"斷階"現象是如何判斷?

是由色階圖還是肉眼上?還是有專門分析軟體去跑??

不過我好奇的是同一張照片放在三塊不同螢幕(非專業螢幕)
不知道斷階程度會不會有極大落差? (暗處雜訊飽和度對比度這些肉眼上應該就很明顯了...)

...(恕刪)


較早期的電腦螢幕比較沒人在關心色彩重現的問題(家用跟專業的售價差距相當大),當然就很有可能出現有的螢幕秀同一張圖時出現不連續的色塊。
而現在數位相機更多人使用後,在螢幕上觀看及分享相片變成常態,自然生產家用電腦螢幕的廠商會放更多心力在新上市的螢幕是否能更有效的執行色彩重現的問題。
所以說,如果你計較色彩重現的問題,更換新上市的影像輸出設備會減少很多不必要的麻煩。
Canon EOS 500N + EF 35-80mm F4-5.6 Canon EOS 300D EF 28-105mm F3.5-4.5 EF 50m
關閉廣告
文章分享
評分
評分
複製連結

今日熱門文章 網友點擊推薦!