claesh
Aktiv medlem
Jag har läst på lite mer..
En av de viktigaste skillnaderna mellan mellan RAW och TIFF är att RAW representerar informationen linjärt medan TIFF (normalt) gör det exponentiellt. Detta gör att man inte kan jämföra bitdjupen utan vidare då de inte representerar samma sak. Förenklat tror jag man kan säga att RAW-filen talar om hur många fotoner som ankommit till varje fotocell under exponeringen. Låt säga (förenklat) : 1000 fotoner på en grön cell -> RAW-filen representerar detta med 1. 2000 fotoner -> detta representeras med 2. 3000 fotoner -> 3. Däremot är TIFF-filen gammajusterad, och skillanden mellan 2 och 3 är större än mellan 1 och 2 - detta representerar en exponentiell ökning. Detta resonemang stämmer med det Stefan skrev, att skillnaden är extra påtaglig i ljusare partier i bilden - där kan RAW-filen uttrycka skillnader med samma upplösning, medan för TIFF-filer så ökar "skalan" hela tiden. Visserligen har TIFF-filen mer bitutrymme för varje färg men detta är olika mycket "värt" i olika delar av bilden, förenklat uttryckt.
dcraw kan konvertera till "linjär TIFF" (utan gamma). Jag testade detta (dcraw -4 -T bild.cr2) - dokumentationen varnar för mörka bilder, och det är precis vad jag får när jag öppnar den på normalt sätt. Men informationen finns där... Jag testar att applicera gamma med imagemagick (convert bild.tiff -gamma 2.2 bild2.2.tiff) - skuggorna lättas upp och bilden ser bättre exponerad ut. Jag testar med olika gamma och effekten är mycket snarlik det jag får när jag applicerar olika exponeringskompensation i UFRaw.
I dcraw FAQ står det så här:
"Why is 16-bit output dark / unreadable?
If you want pretty pictures straight out of dcraw, stay with 8-bit output. 16-bit linear output is the best raw material for professional image editors such as Photoshop and CinePaint, but it's no good for most image viewers. "
En av de viktigaste skillnaderna mellan mellan RAW och TIFF är att RAW representerar informationen linjärt medan TIFF (normalt) gör det exponentiellt. Detta gör att man inte kan jämföra bitdjupen utan vidare då de inte representerar samma sak. Förenklat tror jag man kan säga att RAW-filen talar om hur många fotoner som ankommit till varje fotocell under exponeringen. Låt säga (förenklat) : 1000 fotoner på en grön cell -> RAW-filen representerar detta med 1. 2000 fotoner -> detta representeras med 2. 3000 fotoner -> 3. Däremot är TIFF-filen gammajusterad, och skillanden mellan 2 och 3 är större än mellan 1 och 2 - detta representerar en exponentiell ökning. Detta resonemang stämmer med det Stefan skrev, att skillnaden är extra påtaglig i ljusare partier i bilden - där kan RAW-filen uttrycka skillnader med samma upplösning, medan för TIFF-filer så ökar "skalan" hela tiden. Visserligen har TIFF-filen mer bitutrymme för varje färg men detta är olika mycket "värt" i olika delar av bilden, förenklat uttryckt.
dcraw kan konvertera till "linjär TIFF" (utan gamma). Jag testade detta (dcraw -4 -T bild.cr2) - dokumentationen varnar för mörka bilder, och det är precis vad jag får när jag öppnar den på normalt sätt. Men informationen finns där... Jag testar att applicera gamma med imagemagick (convert bild.tiff -gamma 2.2 bild2.2.tiff) - skuggorna lättas upp och bilden ser bättre exponerad ut. Jag testar med olika gamma och effekten är mycket snarlik det jag får när jag applicerar olika exponeringskompensation i UFRaw.
I dcraw FAQ står det så här:
"Why is 16-bit output dark / unreadable?
If you want pretty pictures straight out of dcraw, stay with 8-bit output. 16-bit linear output is the best raw material for professional image editors such as Photoshop and CinePaint, but it's no good for most image viewers. "