photodo skrev:
Hur gör du när du växlar mellan 12 och 14 bitar?
Varför skulle jag växla mellan 12 och 14 bitar? Jag har bilder tagna med 1D-MkIII som innehåller 14 bitar data, och jag har andra bilder (med samma motiv) taget med andra kameror (Canon 5D, 20D, Nikon D70, D200) som innehåller 12 bitar data. Inget konstigt med detta.
Med 1D-MkIII får jag mätbara skillnad mellan samtliga steg i Stouffers T4110 gråkil (samma som Dpreview använder), det vill säga mer än 13 EV steg dynamiskt omfång. Med min 5D kan jag bara separera c:a 11 EV.
Det skulle vara intressant att veta hur du gör här. Jag har svårt att tro att du kan återge mer än 13 EV med ett normalt objektiv. Jag finner det även svårt att tro att Canons sensor kan återge mer än 13 EV.
Jag gör inget spektakulärt, bara fotograferar av en gråkil (Stouffer T4110) liggandes på ett ljusbord. Sedan mäter jag vilket värde som har registrerats i råfilen för varje tonsteg i gråkilen (medelvärde för 9x9 pixlar) totalt 41 mätvärden, från 15280 till 1000. Varje tonplatta var urskiljbar med ett mätvärde som skiljer sig från sina grannar, precis som man kan förvänta sig.
Poängen är att jag mäter på (i princip) obehandlat rådata, det vill säga direkt ur kameran utan skalning, gamma justering eller annan omräkning. Rådatat extraherar jag med en skräddarsydd variant av dcraw (som en bekant har fixat åt mig), men det går i princip att använda standard dcraw med rätt parametrar om man så vill.
Jag tar vid dessa mätningar inte hänsyn till brus, varför det praktiskt användbara dynamiska omfånget naturligtvis blir mindre. Detta då jag inte har hittat något fungerande sätt att definiera hur mycket brus vi kan acceptera. Ett sätt är naturligtvis att göra som Imatest, där ett godtyckligt valt värde får representera bruset. Tycker dock inte det är rätt sätt, speciellt som metoden premierar kameror med kraftig brusreducering utan hänsyn till förluster i detaljupplösningen. Tar gärna emot idéer om hur vi borde bestämma hur stora avvikelser vi kan tillåta utan att bruset tar över.
Exempelvis representeras EV 3 av fyra databitar när vi använder 14 bitar sensor, medan en 12 bitar sensor bara har en bit data för EV3 (om vi antar att bägge mäter från EV 14 som maxvärde). Högre datamängd medför också mindre känslighet för slumpmässigt bitbrus, exempelvis om den lägsta biten som kan registreras är rent brus.
Jag tror att du har missuppfattat det där med bitdjup och sensorer Daniel.
Det finns bara 10 sorters människor, de som kan räkna binärt och de som inte kan. Nej jag har inte missuppfattat något, men du kanske inte förstår det jag försöker säga.
Det verkar som om de flesta av er inte vet hur en sensor faktiskt fungerar, den fördelar inte värdena jämt så att varje nivå har lika många steg. Utan varje steg motsvarar en reell halvering av data, om vi utgår från ett maxvärde på 255 (8 bitar) så är nästa nivå 128, därefter 64, 32, 16, 8, 4, 2, 1. Skillnaden mellan nivå 1 och 2 är alltså 1 (bit), medan skillnaden på nivå 8 och 9 är 128 (bitar) eller möjliga mätvärden. Praktiskt nog kan vi sätta likhetstecken mellan "nivåer" och EV då bägge mäter halveringar/dubbleringar.
Så om vi exponerar efter högdagrarna med två olika kameror, en med 12 bitar data och en med 14 bitar, så kommer respektive maxvärde hos kamerorna att representera samma exponeringsvärde i motivet. Om vi sedan tittar på mätvärdet 12 EV steg lägre kan vi konstatera att kameran med 12 bitar har nått botten för vad den kan registrera med värdet 1 (förmodligen är denna nivå dessutom helt dränkt i grundbruset), detta medan kameran med 14 bitar vid samma nivå fortfarande mäter 4 (med klar potential att ligga över grundbruset).
På tal om brus så har jag med flit inte tagit med det i beräkningarna, främst för att jag inte har kunnat hitta något mätbart sätt att definiera brusnivåer (istället är brus något som uppfattas väldigt individuellt). Men också för att brus inte är direkt avhängigt om vi har 12 eller 14 bitar data, även om tonomfånget vi kan använda i praktiken kanske begränsas av bruset i skuggorna.
Det är bottenbruset som sätter den undre gränsen för DR.
Visst är det så, jag har inte påstått något annat. Men det är här den stora potentialen med 14 bitar data framför 12 bitar finns, vi kan får större mätvärden vid lika exponeringsnivåer. Vilket i sin tur medför mindre brus i skuggorna om vi exponerar rätt, och antar att bottenbruset är likvärdigt mellan kamerorna. Problemet är att mäta bottenbruset, ett förenklat sätt skulle kunna vara att mäta nivåerna hos en helt svart exponering (tagen med objektivlocket på). Om vi gör så med 1D-MkIII kameran jag använde så får vi veta att det registrerade maxvärdet är 1049 och minvärdet är 999, med medelvärdet 1024. Vilket alltså skall jämföras med mätvärdet för det mörkaste fältet i gråkilen som är max 1052, min 999, medel 1024.
Det är väl inte konstigare än att du kan se skillnader mellan appliceringen av olika tonkurvor på bilden. Det enda problemet är att om du försöker tränga ihop för många EV steg är att kontrasten i mellantonerna blir för liten, det vill säga det problem som HDR tonmappning försöker lösa.
Hur många EV-steg? Och för liten för vad då?
Tja om vi försöker återge 64 EV steg med 8 bitar gammakorrigerat data (som på en skärm) är skillnaden mellan varje tonsteg bara 4, frågan är om det är tillräcklig stor skillnad mellan tonstegen för att vi skall kunna urskilja det? Om vi istället försöker återge mer normala 8 EV steg på samma sätt blir varje tonsteg 32, frågan är alltså hur små tonskillnader vi egentligen kan uppfatta?
Diafilmen har en maxdensitet på cirka 3,7 och en filmbas på cirka 0,1. Det ger ett omfång på 3,6 motsvarande 12 steg. Det borde väl räcka ;-)?
Skämt åsido så måste du skilja mellan kontrast och omfång i motivet och i bilden. Tänk dig ett X-Y-diagram som sensitometriskt representerar en film eller en sensor, ett så kallat HD-diagram. Längs med X-axeln har vi exponering (motivets omfång) och längs med Y-axeln har vi densitet för film och antal elektroner för sensorn. Densiteten och elektronantalet kan översättas till nyanssteg i bilden. En skillnad på 0,3 D motsvarar en fördubbling eller halvering = ett steg. På sidan 8 i denna PDF finner du sådana kurvor för Velvia:
http://www.fujifilmusa.com/JSP/fuji...FAF3-148E_1.pdf
Det är vilktigt att skilja mellan X- och Y-axel. Man måste inte återge varje motiv med exakt samma skillnad mellan skuggor och högdagrar.
Här förstår jag inte vad det är du försöker säga, självklart är motivkontrast och bildkontrast, det är vad jag har försökt säga hela tiden. Men här talar jag endast om bildkontrasten, det vill säga det kontrastomfång som finns i råbilden. (Sedan tror jag inte att de som fortfarande fotograferar svart/vitt med film håller med dig om att 12 steg räcker, men visst för mig räcker det bra.)
Om vi plottar motivdensiteten mot logaritmen för mätvärdena ur råfilen får vi en motsvarande kurva, varje densitetssteg är 0,1 D (tre steg motsvarar en fördubbling eller halvering = ett steg).
Vet inte om du blev något klokare av detta.
/Daniel