Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

<Officiell 40D-tråd> Canon EOS 40D kommer

Produkter
(logga in för att koppla)
PerHbg skrev:
Om vi säger att vi mellan max och minimal signal har 12 bitar så är det 4096 nivåer elelr trappsteg som vi delar upp mellan svart och full nivå. Har vi 14 bitar så får vi finare trappsteg om 16384 st istället och då närmar vi oss mer kontinuerliga övergångar. För normal bildvisning räcker 256 nivåer eller 8 bitar men när vi börjar manipulera och ändra kontrast och ljusstyrka så förbrukar vi av detta och då är frågan hur långt vi vill gå i antal bitar för att märka nyttan av det. Med 400D kan jag se negativa effekter ganska enkelt när man har ökat kontrasten over en himmel t ex för då kan man se hur nyansen stegvis ändrar dig över bilden. Denna stegning borde bli 4 ggr bättre eller vi kan säga att ett synligt nivåsteg delas upp i 4 finare steg istället och då kanske vi ser det som en kontinuerlig övergång istället. Det är väl här vi borde se skilnnade på 12 resp 14 bitars DA-omvanddling.Att ha 16384 nivåsteg mellan svart och vitt istället för 4096 borde ge mer utrymme för efterbehandling av bilderna.

Jag är fullt medveten om allt detta i teorin.
Jag undrar-ser du någon skilnad i att arbeta i 12 eller 14 bitar vad det gäller bildfiler från en canon sensor
Mikael

PS se tidigare svar från mig

Du menar med det dynamiska omfång sensorn ger ca 8,5 steg och den skilnad det visuellt ger att gå från 12-14 bitar vad det gäller nivåer,färger,nyanser så skulle detta ses i en bild som är lika hanterade, dvs 12 eller 14 bitar från denna sensor?
Mikael

PS2 hur skall i så fall du se dessa skilnader, på utskrift, på en monitor/skärm?
 
Senast ändrad:
macrobild skrev:
Jag är fullt medveten om allt detta i teorin.
Jag undrar-ser du någon skilnad i att arbeta i 12 eller 14 bitar vad det gäller bildfiler från en canon sensor
Skillnaden mellan 12 och 14 bitar ser jag tydligt när jag arbetar med råfilerna från 1D-MkIII (jag har ännu inte testat 40D), det är inte så svårt om vi vet var vi skall titta (främst skuggorna).

Med 1D-MkIII får jag mätbara skillnad mellan samtliga steg i Stouffers T4110 gråkil (samma som Dpreview använder), det vill säga mer än 13 EV steg dynamiskt omfång. Med min 5D kan jag bara separera c:a 11 EV.

macrobild skrev:
Du menar med det dynamiska omfång sensorn ger ca 8,5 steg och den skilnad det visuellt ger att gå från 12-14 bitar vad det gäller nivåer,färger,nyanser så skulle detta ses i en bild som är lika hanterade, dvs 12 eller 14 bitar från denna sensor?
Problemet med ditt sätt att resonera är att du vill hantera bilderna exakt lika, då är det klart svårt att se någon skillnad. Poängen är att du faktiskt skall bearbeta bilderna olika för att få ut så mycket som möjligt ur rådatat.

Om vi utgår från en bild med typisk motivkontrast som är betyligt större än mediet kan återge så vet vi alla att den färdiga bilden måste bli en kompromiss. Vi kan välja att exponera efter högdagrar (på bekostnad av skuggorna), mellantonerna (på bekostnad av både högdagrar och skuggor) eller skuggorna (på bekostnad av högdagrarna). Hur mycket vi förlorar beror på mediets förmåga att återge kontraster (vanligen kallat dynamiskt omfång) och på själva exponeringen. Då det sistnämnda är lika oberoende av media lämnar vi detta här.

När motivet väl är fångat av mediet återstår ytterligare en transformering, till ett visningsmedia (papper eller skärm) som kan återge ännu mindre av motivets tonomfång. Vi måste alltså mappa om mediats toner till visningsmediets tonomfång, denna mappning är också mer eller mindre godtycklig. Det enklaste är att klippa bort all information som ligger utanför vad visningsmediet kan återge, om vi gör så kommer vi inte att kunna se någon nämnvärd skillnad mellan 12 eller 14 bitar data (den sistnämnda bör dock ha mindre brus i skuggorna). Så vitt jag kan bedömma är det denna metod som du Mikael brukar använda vid dina jämförelser, den överskjutande informationen brukar du då kalla för exponeringslatitud. Hur undrar du? Genom att sätta vitpunkt och svartpunkt efter QP kortet.

Ett alternativt sätt att mappa tonerna är att avdela tonsteg i visningsmediet till ljusare än vitt och svartare än svart, exempelvis genom att låta QP kortets vita tonplatta motsvara inte 255 255 255 utan 239 241 238 (Adobe RGB) och QP kortets svarta tonplatta inte till 0 0 0 utan 64 64 64 (i enlighet med instruktionerna som finns att hämta från QP kortets webbsida). Vad som händer är att vi får tonvärden över till de bortklippta ändarna av historgrammet. Märk att värden mellan 239 241 238 och 255 255 255 symboliserar flera exponeringssteg av information, lika så värden mellan 64 64 64 och 0 0 0. Vi får då en icke linjär återgivning av bilddatat i ändarna av histogrammet, det vill säga den klassiska S-kurvan.

Det är här skillnaden mellan 12 och 14 bitar kommer in i praktiken, förutom att 14 bitar har mer bortklippt information än 12 bitar så återger 14 bitar skuggorna med större noggranhet (fler databitar per EV). Exempelvis representeras EV 3 av fyra databitar när vi använder 14 bitar sensor, medan en 12 bitar sensor bara har en bit data för EV3 (om vi antar att bägge mäter från EV 14 som maxvärde). Högre datamängd medför också mindre känslighet för slumpmässigt bitbrus, exempelvis om den lägsta biten som kan registreras är rent brus.

På tal om brus så har jag med flit inte tagit med det i beräkningarna, främst för att jag inte har kunnat hitta något mätbart sätt att definiera brusnivåer (istället är brus något som uppfattas väldigt individuellt). Men också för att brus inte är direkt avhängigt om vi har 12 eller 14 bitar data, även om tonomfånget vi kan använda i praktiken kanske begränsas av bruset i skuggorna.

macrobild skrev:
PS2 hur skall i så fall du se dessa skilnader, på utskrift, på en monitor/skärm?
Det är väl inte konstigare än att du kan se skillnader mellan appliceringen av olika tonkurvor på bilden. Det enda problemet är att om du försöker tränga ihop för många EV steg är att kontrasten i mellantonerna blir för liten, det vill säga det problem som HDR tonmappning försöker lösa.

Problemet är inte längre den digitala sensorns begränsade tonomfång (dynamiskt omfång) som är problemet, utan det börjar helt klart bli hög tid för nya visningsmedier som kan återge ett större tonomfång korrekt.

/Daniel
 
Ett mail från Mikael Risedal riktade min uppmärksamhet mot denna diskussion. Detta är i princip sådant jag undersökt och undervisat om hundratals gånger i mina zonsystemskurser de senaste 25 åren.

Först motivets kontrast
Max kontrast är från ett svart hål till en lampa, sol eller en reflex från dessa. Den kan vara väldigt hög. Låt oss utgå från att ett svart hål i bild skall återges som det är i verkligheten, alltså helt svart och vitt på motsvarande sätt. Vi behöver således ingen teckning här. Verklig användbar motivkontrast går från en svart yta i motivets skugga till en vit yta i motivets direktupplysta del. Om man mäter denna kontrast med en bra spotmätare från kameraposition så finner man att det blir cirka 5 steg för motiv med låg kontrast, 7 för medelkontrast (svagt slöjad sol) och upp till 9 steg vid skarp sol.
Denna motivkontrast skall vid fotograferingen projiceras på en sensor (eller film). Här kommer dels objektivets, dels kamerahusets ströljus (flare) att reducera kontrasten. Även motljusskyddet påverkar situationen. Även det bästa av objektiv, med perfekt kompendium som motljusskydd och ett kamerahus helt utan reflexer kommer att reducera kontrasten något. Det som händer är att en del av det skarpa högdagerljuset sprids över bildytan och sänker skuggkontrasten. Notera att en blank sensor i allmänhet reducerar kontrasten mer än en grå matt filmyta i samma kamerahus.

Sensorns och filmens dynamiska omfång
En negativ film kan återge upp till cirka 15 stegs omfång, en diafilm ligger på runt 7-8 steg och en ritigt bra sensor på 14 steg. I dagens "normala" kameror har de bästa sensorerna cirka 12 stegs omfång. Man beräknar detta genom att dela full well capacity med grundbruset.
Medan en film har en fast grundkänslighet som beskrivs med ett ISO-tal så skall en sensor i en digitalkamera klara av många olika ISO-tal. I exponeringsögonblicker har sensorn ingen aning om vilket ISO-tal som du ställt in på kameran.
När Norman Korens Imatest och Anders Uschold mäter kamerornas dynamiska omfång så begränsar de sina mätningar till ett givet ISO-tal. Deras mätningar säger alltså inget om sensorernas totala dynamiska omfång, endast vad man får ut efter kamerans bearbetning av rådata och A/D-omvandling. När en råbild efterbehandlas manuellt i en råkonverterare så kan bildens DR utökas. Att lägga en kurva på en befintlig bild påverkar inte DR alls, utan endast hur mjukt eller hårt vi väljer att återge bildens toner. Det som kan uppfattas som högre DR är när vi lägger en kurva som återger högdagrar och skuggor mjukare, men detta sker alltid på bekostnad av mellantonernas kontrast.

Den återgivna bildens kontrast
Här är det mediets skillnad mellan det svartaste och det vitaste som sätter gränserna. Mät densitet för ett fotopapper eller ett inkjetpapper och minska maxdensitet med mindensitet så får man omfånget. Ett riktigt bra papper, både foto och inkjet, kan uppnå en maxdensitet på 2,4. Pappersvitt ligger på 0,1 i bästa fall. omfånget blir på 2,3 som motsvarar 7 2/3 steg. En diafilm ligger betydligt högre. Vad bildskärmen kan komma upp i vet jag inte, men det beror väldigt mycket på miljön som man sitter i. Det svartaste på skärmen blir mindre svart i ett ljust rum.

Sätta vit- och svartpunkt
Sensorns uppgift är att fånga motivets olika toner så att de finns representerade i bildfilen. Vad vi sedan gör med dessa toner beror på hur vi väljer att sätta vit- och svartpunkt samt hur vi lägger mellantonerna. Detta är en smakfråga. När detta är gjort så har vi en färdig bild som kan betraktas på en bildskärm i ett mörkt eller ljust rum, skrivas ut på ett inkjetpapper eller på ett fotografiskt papper. Hur motivets olika toner kommer att återges till slut beror på hur vi väljer att visa dem. Vi kan, om vi vill och vet hur man gör, återge högkontrastmotivets 9 steg på ett matt papper med ett omfång på endast 6 steg, utan att försaka bildtoner men på bekostnad av kontrasten. Alla motivvalörer är med på bilden, men återgivna betydligt mjukare än i motivet. Vi kan också välja att återge lågkontrastmotivets 5 steg på ett högklassigt injetpapper med en riktigt bra skrivare så att de fördelas över nästan 8 steg. Vi har då höjt kontrasten jämfört med det ursprungliga motivet.
QPcard har inget med detta att göra QPcard används endast som en referens för neutralgrått. De tre fälten i QPcard 101 kan användas för att sätta gråbalans i tre delar av tonskalan. Det har aldrig varit meningen att tonerna i QPcard skall återges exakt lika i bilden.

Binära bitar
Hur många urskiljbara tonsteg har en bild? Hur många tonsteg behövs? En sensor endast kan registrera ett begränsat antal valörer. Den övre gränsen sätts av sensorns full well capacity. När sensorn träffas av fotoner under exponeringen, omvandlas en del av dessa till elektroner. Ett sensorelement kan endast hålla ett begränsat antal elektroner. Detta står i proportion till kiselytan. När elementet (pixeln) är fullt så kommer ytterligare ljus endast att ”rinna över”. I andra ändan är det bottenbruset som sätter gränsen. För få fotoner kommer att drunkna i bruset.
En del sensortillverkare berättar öppet i sina datablad vilket dynamiskt omfång deras sensorer har. Andra väljer att mörka och hänvisar till att det är konfidentiellt.
Tumregeln säger att det dynamiska omfånget är full well capacity / readout noise. För Kodaks 39 megapixel KAF 39000 (pixelpitch 6,8µm) får man 60000/16=3750 tonsteg vilket kan beskrivas utan förlust med 12 bitar (4096 nivåer). Detta motsvarar nästan 12 stegs dynamiskt omfång.
 
dano skrev:
Skillnaden mellan 12 och 14 bitar ser jag tydligt när jag arbetar med råfilerna från 1D-MkIII (jag har ännu inte testat 40D), det är inte så svårt om vi vet var vi skall titta (främst skuggorna).
Hur gör du när du växlar mellan 12 och 14 bitar?

Med 1D-MkIII får jag mätbara skillnad mellan samtliga steg i Stouffers T4110 gråkil (samma som Dpreview använder), det vill säga mer än 13 EV steg dynamiskt omfång. Med min 5D kan jag bara separera c:a 11 EV.
Det skulle vara intressant att veta hur du gör här. Jag har svårt att tro att du kan återge mer än 13 EV med ett normalt objektiv. Jag finner det även svårt att tro att Canons sensor kan återge mer än 13 EV.

Om vi utgår från en bild med typisk motivkontrast som är betyligt större än mediet kan återge så vet vi alla att den färdiga bilden måste bli en kompromiss. Vi kan välja att exponera efter högdagrar (på bekostnad av skuggorna), mellantonerna (på bekostnad av både högdagrar och skuggor) eller skuggorna (på bekostnad av högdagrarna). Hur mycket vi förlorar beror på mediets förmåga att återge kontraster (vanligen kallat dynamiskt omfång) och på själva exponeringen. Då det sistnämnda är lika oberoende av media lämnar vi detta här.
Om du kan återge mer än 13 EV så lär detta inte vara något problem för dig.

När motivet väl är fångat av mediet återstår ytterligare en transformering, till ett visningsmedia (papper eller skärm) som kan återge ännu mindre av motivets tonomfång. Vi måste alltså mappa om mediats toner till visningsmediets tonomfång, denna mappning är också mer eller mindre godtycklig. Det enklaste är att klippa bort all information som ligger utanför vad visningsmediet kan återge, om vi gör så kommer vi inte att kunna se någon nämnvärd skillnad mellan 12 eller 14 bitar data (den sistnämnda bör dock ha mindre brus i skuggorna). Så vitt jag kan bedömma är det denna metod som du Mikael brukar använda vid dina jämförelser, den överskjutande informationen brukar du då kalla för exponeringslatitud. Hur undrar du? Genom att sätta vitpunkt och svartpunkt efter QP kortet.
Det är betydligt enklare och mindre godtyckligt att sätta vit- och svartpunkt enligt tycke och smak.

Det är här skillnaden mellan 12 och 14 bitar kommer in i praktiken, förutom att 14 bitar har mer bortklippt information än 12 bitar…
???????

…så återger 14 bitar skuggorna med större noggranhet (fler databitar per EV).
??????????

Exempelvis representeras EV 3 av fyra databitar när vi använder 14 bitar sensor, medan en 12 bitar sensor bara har en bit data för EV3 (om vi antar att bägge mäter från EV 14 som maxvärde). Högre datamängd medför också mindre känslighet för slumpmässigt bitbrus, exempelvis om den lägsta biten som kan registreras är rent brus.
Jag tror att du har missuppfattat det där med bitdjup och sensorer Daniel.

På tal om brus så har jag med flit inte tagit med det i beräkningarna, främst för att jag inte har kunnat hitta något mätbart sätt att definiera brusnivåer (istället är brus något som uppfattas väldigt individuellt). Men också för att brus inte är direkt avhängigt om vi har 12 eller 14 bitar data, även om tonomfånget vi kan använda i praktiken kanske begränsas av bruset i skuggorna.
Det är bottenbruset som sätter den undre gränsen för DR.

Det är väl inte konstigare än att du kan se skillnader mellan appliceringen av olika tonkurvor på bilden. Det enda problemet är att om du försöker tränga ihop för många EV steg är att kontrasten i mellantonerna blir för liten, det vill säga det problem som HDR tonmappning försöker lösa.
Hur många EV-steg? Och för liten för vad då?

Problemet är inte längre den digitala sensorns begränsade tonomfång (dynamiskt omfång) som är problemet, utan det börjar helt klart bli hög tid för nya visningsmedier som kan återge ett större tonomfång korrekt.
Diafilmen har en maxdensitet på cirka 3,7 och en filmbas på cirka 0,1. Det ger ett omfång på 3,6 motsvarande 12 steg. Det borde väl räcka ;-)?
Skämt åsido så måste du skilja mellan kontrast och omfång i motivet och i bilden. Tänk dig ett X-Y-diagram som sensitometriskt representerar en film eller en sensor, ett så kallat HD-diagram. Längs med X-axeln har vi exponering (motivets omfång) och längs med Y-axeln har vi densitet för film och antal elektroner för sensorn. Densiteten och elektronantalet kan översättas till nyanssteg i bilden. En skillnad på 0,3 D motsvarar en fördubbling eller halvering = ett steg. På sidan 8 i denna PDF finner du sådana kurvor för Velvia:
http://www.fujifilmusa.com/JSP/fuji/epartners/bin/RVP100FAF3-148E_1.pdf
Det är vilktigt att skilja mellan X- och Y-axel. Man måste inte återge varje motiv med exakt samma skillnad mellan skuggor och högdagrar.
 
Vad kan vi då säga om 14 bitar jämfört med 12? Är bruset från själva sensorn tillräckligt lågt för att vi skall ha nytta av de 14 bitarna? Finns det ett värde som vi skulle kunna ange för dynamiken för att lättare vetaoch kunna jämföra hur lågt brus vi kan förvänta oss av en kamera? 14 bitar är väl ingen garanti?
 
Jag menar har 40D 14 steg i omfång? Det bör ju vara samma sak bit-djupet i AD-omvandlaren är samma som omfånget i exponeringsvärdet om jag fattat saken rätt. En extra bit binärt ger en fördubbling av talvärdet precis som 1EV är en fördubbling. Klarar 40D 14EV jämfört med 400D:s teoretiska 12EV? Har dessa kameror dessa omfång överhuvudtaget egentligen? Anger man exponeringsomfånget i EV för kameror? Det är kanske detta värde vi borde jämföra i så fall och kräva av leverantörerna?
 
PerHbg skrev:
Jag menar har 40D 14 steg i omfång? Det bör ju vara samma sak bit-djupet i AD-omvandlaren är samma som omfånget i exponeringsvärdet om jag fattat saken rätt. En extra bit binärt ger en fördubbling av talvärdet precis som 1EV är en fördubbling. Klarar 40D 14EV jämfört med 400D:s teoretiska 12EV? Har dessa kameror dessa omfång överhuvudtaget egentligen? Anger man exponeringsomfånget i EV för kameror? Det är kanske detta värde vi borde jämföra i så fall och kräva av leverantörerna?
Om det nu skulle vara så att 14 bitar innebär möjlighet att inrymma ett visst antal steg, så betyder det förstås inte att kameran klarar det. Bruset sätter gränsen.

Tillägg: Jag är inte insatt, men antalet bitar borde inte ha något med antal steg att göra alls. Det gör bara att det finns möjlighet att återge fler toner inom omfånget, vilket inte borde ha med omfångets gränser att göra. Ett EV-steg kan ju delas in i massor av delsteg. Och tre EV-steg kan återges i bara två valörer om man vill det, trots att skillnaden är densamma.
 
Såhär nånting... Till vänster har vi hög "upplösning", det vill säga stort bitdjup. Till höger väldigt låg. Antalet steg är samma, men delnivåerna är färre om bitdjupet är mindre.
Nu har vi dessutom tre olika färger, så jag vet inte riktigt hur det blir där. Hur många bitar per kanal är det? Varje kanal har en egen kurva, som vi borde kunna betrakta som färglös (det är ju egentligen bara en monokrom bild per kanal, med ett färgfilter framför sensorn så att de skiljer sig åt).

Tillägg: Observera att jag inte vet om det är såhär det funkar, men det borde vara så. Man kan jämföra med ljud, där bitdjupet representerar dynamikens upplösning.
 

Bilagor

  • bitupplösning.gif
    bitupplösning.gif
    2.9 KB · Visningar: 556
Jag talar om det dynamiska omfånget angett i EV. Inte exponeringssteg som sådant. Teoretiskt kan det vara maximalt detsamma som bitbredden i AD-omvandlaren om vi inte har annat brus i systemet.

Vi skulle kunna tala om dB istället som man gör i ljudsammanhang. 14 bitar är ju 14 fördubblingssteg i spänning och en spänningsfördubbling är 6 dB och då kan vi enkelt räkna ut att AD-omvanlingen i 14 bitarsfallet kan få en maximal dynamik på 6dB*14 = 84dB. Jag hade personligen som ingenjör helst sett att man angett en digitalkameras dynamik i dB men även i EV steg går bra. Men jag kan inte finna några sådana värden i kameraspecifikationerna. Eller har jag missat något?
 
Jag har inte jämfört 1dmk3 med 5d mer än att jag tog ett antal bilder på 1600iso med de två kamerorna, där såg jag ingen skilnad i återgivning från det svartaste till det vitaste, ej heller i brus och detaljer.
Jag kan inte förstå de skilnader som Daniel dukar upp, om de skulle vara visuella skilnader så är det beroende på vilken kurva och hur man sedan tar hand om informationen .
Dynamiska omgfånget är enligt min mening likartad från de två kamerorna 1dsmk3 och 5d

Lars skriver: För Kodaks 39 megapixel KAF 39000 (pixelpitch 6,8µm) får man 60000/16=3750 tonsteg vilket kan beskrivas utan förlust med 12 bitar (4096 nivåer). Detta motsvarar nästan 12 stegs dynamiskt omfång.

Likaså tror jag det är med Canons sensorer, det räcker alltså med 12bitar, och det var det jag svarade på tidigare. Dvs varför 14 bitar A/D?
Varför inte 22 bitars A/D om vi ändå är igång-_Pentax har ju det, men till vilken nytta?

Mikael
 
PerHbg skrev:
Jag talar om det dynamiska omfånget angett i EV. Inte exponeringssteg som sådant. Teoretiskt kan det vara maximalt detsamma som bitbredden i AD-omvandlaren om vi inte har annat brus i systemet.

Vi skulle kunna tala om dB istället som man gör i ljudsammanhang. 14 bitar är ju 14 fördubblingssteg i spänning och en spänningsfördubbling är 6 dB och då kan vi enkelt räkna ut att AD-omvanlingen i 14 bitarsfallet kan få en maximal dynamik på 6dB*14 = 84dB. Jag hade personligen som ingenjör helst sett att man angett en digitalkameras dynamik i dB men även i EV steg går bra. Men jag kan inte finna några sådana värden i kameraspecifikationerna. Eller har jag missat något?
Kodak anger sin sensors dynamic i dB
 
Makten skrev:
Såhär nånting... Till vänster har vi hög "upplösning", det vill säga stort bitdjup. Till höger väldigt låg. Antalet steg är samma, men delnivåerna är färre om bitdjupet är mindre.
Nu har vi dessutom tre olika färger, så jag vet inte riktigt hur det blir där. Hur många bitar per kanal är det? Varje kanal har en egen kurva, som vi borde kunna betrakta som färglös (det är ju egentligen bara en monokrom bild per kanal, med ett färgfilter framför sensorn så att de skiljer sig åt).

Tillägg: Observera att jag inte vet om det är såhär det funkar, men det borde vara så. Man kan jämföra med ljud, där bitdjupet representerar dynamikens upplösning.

Ja man kan jämföra med ljud som jag skrev i mitt förra inlägg innan jag såg ditt inlägg enligt ovan för vi skrev nog ungefär samtidigt :). För varje färg har vi 12 eller 14 bitar. Detta är den diskreta pixeln i bayermönstret nu som vi talar om. Och helt riktigt kommer annat brus in i det hela och det är det som var min grundfråga: Hur är dynamiken i 40D och kanske jämfört mot 400D? För det är väl inte AD-omvandlarens bitbredd som sätter begränsningen?
 
photodo skrev:
Tumregeln säger att det dynamiska omfånget är full well capacity / readout noise. För Kodaks 39 megapixel KAF 39000 (pixelpitch 6,8µm) får man 60000/16=3750 tonsteg vilket kan beskrivas utan förlust med 12 bitar (4096 nivåer). Detta motsvarar nästan 12 stegs dynamiskt omfång.
Detta låter extremt egendomligt. Hur fin den dynamiska upplösningen är har väl inget med omfånget att göra? Man kan ju spara samma sensordata med olika många bitar. Omfånget mellan ljusast och mörkast i motivet är ju fortfarande lika stort, bara att bilden kommer att posteriseras om det är för många nivåer som ska återges i förhållande till bitdjupet:-O
 
Makten skrev:
Detta låter extremt egendomligt. Hur fin den dynamiska upplösningen är har väl inget med omfånget att göra? Man kan ju spara samma sensordata med olika många bitar. Omfånget mellan ljusast och mörkast i motivet är ju fortfarande lika stort, bara att bilden kommer att posteriseras om det är för många nivåer som ska återges i förhållande till bitdjupet:-O

Dynamiskt omfång är vad den är från olika sensorer. Dvs att kunna återge från det svartaste till det vitaste innan "bägaran är så mättad" att den rinner över". Se Lars förklaring, dvs från att kunna hålla ett antal elektroner före utläsning well capacity till att kunna urskilja få elektroner ovan brus som ger en detektbar signal.
DETTA ÄR DYNAMISKT OMFÅNG.Sedan hur du förvaltar den information från det svarta till det vita är en annan sak, dvs synligör olika gråskalesteg och indelning i hur få eller många dessa skall vara.
Mikael
 
Är det verkligen sant att man hoppar över en så viktig parameter i specifikationerna som sensorns användbara dynamiska område?

Någon som sett någon test med angivna värden för dynamiken hos 40D och närliggande kameror någonstans?

Finns det inte en enkel metod genom att t ex exponera en bild med kameran riktad mot ett kraftigt belyst fält vid sidan av ett kolsvart fält och i efterhand i RAW-format-filen kunna analysera och räkna ut en kameras dynamiska område med skillnaden mellan det vita och svarta(bruset)?
 
PerHbg skrev:
Är det verkligen sant att man hoppar över en så viktig parameter i specifikationerna som sensorns användbara dynamiska område?

Någon som sett någon test med angivna värden för dynamiken hos 40D och närliggande kameror någonstans?

Finns det inte en enkel metod genom att t ex exponera en bild med kameran riktad mot ett kraftigt belyst fält vid sidan av ett kolsvart fält och i efterhand i RAW-format-filen kunna analysera och räkna ut en kameras dynamiska område med skillnaden mellan det vita och svarta(bruset)?


Lars beskriver här hur du kan göra http://www.qpcard.se/BizPart.aspx?tabId=75
 
macrobild skrev:
Lars beskriver här hur du kan göra http://www.qpcard.se/BizPart.aspx?tabId=75

Ja. Något sådant så man kan använda Photoshop t ex som han gör tänkte jag mig faktiskt. Kräver lite arbete men jag ska se om jag kan få fram något värde på min 400D så kanske någon annan kan göra samma med sin 40D?

Och ja som Kodak gör med dB för dynamiken vore ju fint om alla gjorde med t ex: "Linear Dynamic Range (f=24 MHz) = 71.4 dB"

Då kunde vi lättare avgöra vilken kamera vi vill ha.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar