Annons

RAW konverterare vs. PS 32 bit

Produkter
(logga in för att koppla)

wfrank

Aktiv medlem
Hej alla :)

En ny perpetuum mobile har startat i forumgrenen "Fototeknik", den här gången heter inkarnationen "Nödvändigt med RAW vid perfekt exponering". Gubbarna är så upptagna med att överbevisa varandra att min fråga antagligen kommit bort i bruset, eller också är den helt enkelt för dum. Jag gör ett försök här istället:

Är det någon som vet vad händer om man undviker RAW-konvererare (som tex ACR - Adobe Camera Raw), och istället exporterar RAW-bilden oförändrad till PS? Där ställer man om bitdjupet till 32 och gör sen alla tänkta justeringar. Blir inte resultatet "bättre", eftersom jag nu gör alla förändringar med tillgång till hela 32 bitar per kanal ist.f. RAW's 12-14? Nån som kan se fördelar/nackdelar med detta?

Vitbalans kan ju tex ställas via Curves eller Levels vitpunkt, Recovery kan simuleras via Shadows/Highlights etc. Dessutom får man tillgång till PS hela övriga arsenal direkt.

PS. Photoshop kan som bekant inte öppna RAW-filer direkt, det sker via tex ACR, men nu menar jag alltså att gå direkt vidare från ACR till PS utan att ändra något i ACR. Hoppas det är tydligt nog.
 
Du kan ju inte undvika framkallningssteget. Det vore ju som att stå med ett oframkallat negativ i förstoringsapparaten.

Oavsett hur du vänder och vrider på det så måste rådatan från sensorn översättas till färger och det sker i PS fall genom ACR. Oavsett om du väljer att bara låta den passera rakt igenom eller om du väljer att vara aktiv i framkallningsmodulen. Lite som att sätta framkallningen av filmen på auto, eller skruva på rattarna för önskat resultat.
 
Tack för snabbt svar Jesper!

Ok, rådatan ska först översättas till en bild/färger så långt är jag med.

Men i nästa steg börjar många manipulera bilden i ACR (alltså vara aktiv i framkallningsprocessen som du säger). Är det inte bättre göra det i PS med tillgång till 32 bitar än i ACR's som väl kör 16 bitar (oavsett om ursprunget är 12 eller 14 bitars RAW)?

Är kanske korkad igen, men ett exempel: du har en närmast utfrätt himmel. Svaga detaljer av moln/himmel syns, men inte mycket.

Om du då försöker få fram mer av den i ACR jämfört med PS ställt på 32 bitar så borde det finnas två stora nackdelar (?).

1) förändringar av ex.vis highlights/lights (under Tone Curve) eller recovery (under Basic) slår snabbare i taket eftersom det bara finns 16 bitar att spela med. Interpolation med färre bitar gör att skiktningar och sånt uppträder snabbare. Och dessutom så...
2) ...påverkas hela bilden. Det kan finnas områden som också är ljust exponerade men där manipulationen av himlen ger oönskade effekter.
 
*bump*

Någon? Det är annars lätt att förledas tro att en hel del redigeringar görs bäst i PS, snarare än ACR när väl "framkallningen" är avklarad. Praktiskt kan man väl ifrågasätta varför man skulle göra det annat än i undantagsfall.

ACR får för varje ny version mer och mer funktioner som imponerar, men samtidigt undrar man vad man hellre bör utföra i PS. Förutom det uppenbara att man kan redigera enskilda delar av bilden.

Nån bland moderskeppets experter kanske vet något om detta?
 
Om du jobbar med t.ex en 14-bitars bild så spelar det väl ingen roll om programmet klarar 16 eller 32 bitar så länge det är mer än 14, varifrån skulle den extra informationen komma ifrån som PS skulle kunna utnyttja?

Sen känns det som att om det var en begränsning att jobba i ACR och att detta skulle ge sämre bildkvalitet så skulle varenda expert skrika högt om det.
 
Alltså, när du skapar din bild utifrån rawdatan förvinner en massa information. Raw filen är ingen bild utan bara datan från sensorn. När du väl givit en pixel färgvärdet 255,255,255 så är den vit. Alla vita pixlar kommer förändras med samma värde då du leker med levels i PS men sänker du exponeringen på en RAW får inte längre pixlarna samma värde. Två pixlar kan sättas till vita även om de inte fått lika mycket ljus.

När du väl trixat till bilden till utgångsvärdet du vill ha får du väl använda 32-bitar om du tycker det är kul. Tror inte att skrivare kan återge alla de färgerna iaf.
 
Bra fråga - jag har också funderat mycket på detta. Min slutsats (som kan vara fel förstås) är att det RAW-filen innehåller, om går förlorat vid export till annat format (tex 16 bitars TIFF), inte är så mycket fråga om färgdjup, som detaljer i upplösningen. RAW-konverteraren omvandlar data från omväxlingsvis gröna, röda och blåa sensorpunkter till pixlar som innehåller grön, röd och blå information i "samma" punkt.

http://www.kodak.com/US/images/en/corp/1000nerds/berarducci/interpolation_algorithm_pic_1_cr.jpg

Interpoleringen kan göras på olika vis, och förutom att påverka skärpan tycks det finnas bättre möjligheter att kompensera kromatisk aberration (CA) när man har tillgång till RAW-data. Det finns olika interpoleringsmetoder, och använder man en som är mindre bra än en annan så kan man inte göra om den utan att gå tillbaka till RAW-formatet.

Så det jag tror är att det huvudsakligen är i de små detaljerna som information går förlorad.

Däremot skulle jag tro att övergripande färgjusteringar, såsom ändring av vitbalans osv, går lika bra att göra efter RAW-konverteringen.
 
Däremot skulle jag tro att övergripande färgjusteringar, såsom ändring av vitbalans osv, går lika bra att göra efter RAW-konverteringen.
NEJ, absolut inte. Med undantag av mycket små justeringar av vitbalansen går det inte att göra det lika bra efter råkonverteringen. Likadant med att justera kontrast och valör, framförallt i de ljusa partierna av bilden, det görs betydligt bättre i råkonverteraren än i Photoshop. Som flera i denna tråd sagt, i råkonverteraren har du tillgång till all den information som kameran registrerat. Du kan också bestämma hur uttaget av denna information ska balanseras. Det gör att ska du nå bästa resultat ser du till att bilden ser så bra ut som möjligt i råkonverteraren innan exporten till TIFF eller JPEG.

STEFAN
 
Alltså, när du skapar din bild utifrån rawdatan förvinner en massa information. Raw filen är ingen bild utan bara datan från sensorn. När du väl givit en pixel färgvärdet 255,255,255 så är den vit. Alla vita pixlar kommer förändras med samma värde då du leker med levels i PS men sänker du exponeringen på en RAW får inte längre pixlarna samma värde. Två pixlar kan sättas till vita även om de inte fått lika mycket ljus.

Om färger representeras med 16 bitar per färg i det nya formatet kommer dock inte vit representeras av 255,255,255 i filen utan snarare 65535,65535,65535. Inom ramen för dessa "större siffror" finns det utrymme för nyanser, och det som skulle heta 255,255,255 i en JPG, kanske kommer heta 65480,65500,65550 i en 16-bitars TIFF. Då de flesta RAW-format har mellan 12 och 14 bitars färgdjup så bör alltså 16 bitar räcka till att representera färger som inte är mättade redan i RAW-filen - dvs om man konverterar RAW till ett tillräckligt djupt format så går det bra.

Frågan är bara vad tex 16-bitars format egentligen betyder. Det är inte självklart, och tycks bero på sammanhanget. På Wikipedia, "Color depth", som huvudsakligen handlar om grafikadaptrar och presentation på skärmar mm beskrivs "16 bit color" som 5+5+6 bitar per kanal, dvs inte särskilt mycket.

Jag blev lite förvirrad, för jag har konverterat mina RAW-filer till 16-bitars TIFF-filer med UFRaw: "--out-type=tiff16". Nu kollade jag i dokumentationen, det är 16 bitar per färg, som i exemplet ovan. Men TIFF-formatet kan ha avsevärt större färgdjup än så: upp till åtminstone 48 bitar per färg(!). Frågan är vilka program som kan behandla en så "djup" fil.. det går att skapa med ImageMagick i alla fall.
 
NEJ, absolut inte. Med undantag av mycket små justeringar av vitbalansen går det inte att göra det lika bra efter råkonverteringen. Likadant med att justera kontrast och valör, framförallt i de ljusa partierna av bilden, det görs betydligt bättre i råkonverteraren än i Photoshop. Som flera i denna tråd sagt, i råkonverteraren har du tillgång till all den information som kameran registrerat. Du kan också bestämma hur uttaget av denna information ska balanseras. Det gör att ska du nå bästa resultat ser du till att bilden ser så bra ut som möjligt i råkonverteraren innan exporten till TIFF eller JPEG.

STEFAN

Kan du förklara varför det i så fall ligger till på det viset? Färgdjupet kan ju representeras lika exakt i en 16-bitars TIFF som i en 14-bitars RAW? Naturligtvis kommer det ske avrundning vid konverteringen men jag kan inte se att information går förlorad som gör någon praktisk skillnad.
 
Tack för intressanta svar! Ja min tanke var att en nästan utbränd himmel från ACR - som då kommer med 16 bitar per färgkanal (värden nära 65.000) nu mappas på 32 bitar (värden nära 4.300.000.000).

Om det från 16 bitar skiljer sig (förenklat) 1 värde i ett parti (nästan) utbränd himmel. Säg alltså värdena 65.000, 64.999 och 64.998. När dessa bildpunkter mappas på 32 bitar så motsvaras det rufft av värdena: 4.300.000.000, 4.234.000.000, 4.168.000.000. Plötsligt finns ett väldigt spann mellan punkterna i partiet att laborera med. Interpolation (i matematisk mening) borde kunna utnyttja detta.

Väldigt väldigt teoretiskt, jag förstår. Men det var så jag tänkte.
 
Kan du förklara varför det i så fall ligger till på det viset? Färgdjupet kan ju representeras lika exakt i en 16-bitars TIFF som i en 14-bitars RAW? Naturligtvis kommer det ske avrundning vid konverteringen men jag kan inte se att information går förlorad som gör någon praktisk skillnad.

En av de orsaker som gör att man kan hämta in mer information i högdagrar i en råkonverterare som CameraRaw är att det sällan är alla tre färgkanaler som är helt utan information. Ta som exempel en bild tagen i glödlampsljus. Från början är ju den röda kanalen betydligt mer exponerad än den blå och gröna kanalen. Om den röda kanalen då är helt utan valörer kan programmet skapa information från de två andra kanalerna för att få en ton i dessa partier.

Stefan
 
Tack för intressanta svar! Ja min tanke var att en nästan utbränd himmel från ACR - som då kommer med 16 bitar per färgkanal (värden nära 65.000) nu mappas på 32 bitar (värden nära 4.300.000.000).
Men Photoshop arbetar normalt med 8 eller 16 bitars bilder. 32 bitar är det som kallas HDR-bilder och det kan du inte få fram ur en råfil.

Stefan
 
Men Photoshop arbetar normalt med 8 eller 16 bitars bilder. 32 bitar är det som kallas HDR-bilder och det kan du inte få fram ur en råfil.

Stefan

Ja, men poängen här är att du ställer om till 32 bitar för ökat "headroom". Och det kan du (under "mode" tror jag det heter). Filerna blir minst sagt stora >100 MB i tif.
 
Det där stämmer nog inte. Poängen med tex tre olika exponeringar är att kunna utnyttja "normalexponerade" partier av vitt skilt ljussatta delar av motivet. Då behövs inga 32 bitar. Tvärtom, behovet av bitar minskas eftersom den kombinerade bilden saknar såväl över- som underexponerade delar.
 
Det där stämmer nog inte. Poängen med tex tre olika exponeringar är att kunna utnyttja "normalexponerade" partier av vitt skilt ljussatta delar av motivet. Då behövs inga 32 bitar. Tvärtom, behovet av bitar minskas eftersom den kombinerade bilden saknar såväl över- som underexponerade delar.

Kolla i Photoshops hjälpmeny, om du inte tror på mig :)

Eftersom jag har gjort en del HDR så vet jag dock att det är för den anledningen som detta finns. Och du missuppfattar nog vad vi behöver bitarna till. Det stora antalet bitar behövs verkligen, eftersom vi kan beskriva en bild med mer än 20 stegs kontrastomfång med en HDR-bild. För att informationen ska vara tillräckligt noggrant beskriven krävs det stora bitdjupet.

Stefan
 
Hmm du verkar minsann ha alldeles rätt. Även Photomatix (som jag använt) kör 32 bitar vid sin konvertering. Tack för förtydligandet :)
 
ANNONS
Köp en spegellös systemkamera från Canon och få ett 50mm objektiv på köpet hos Götaplatsens Foto.