Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

<Officiell 40D-tråd> Canon EOS 40D kommer

Produkter
(logga in för att koppla)
Bla i Hasselblads bakstycken
Mikael


PS

Du behöver inte jiddra med att kolla din kamera , erfarenhetsmässigt så uppvisar de två kamerorna ungefär likartad dynamiskt omfång, det kan diffa lite i högdager eller skugga mellan de två.
Min 5d och 30d har liknande dynamiska omfång, 5d går lite högre i det vita, 30d går lite djupare i skuggor vid uppmätning.Lite beroende på hur Canon anser det är lämligt att lägga sina interna parametrar.
Canon EOS 400 8.4 EV likaså 5d, 30d
Här en jämförelse
http://www.dpreview.com/reviews/canoneos30d/page21.asp

En till: http://www.dpreview.com/reviews/CanonEOS400D/page19.asp
 
Senast ändrad:
macrobild skrev:
Bla i Hasselblads bakstycken
Mikael


PS

Du behöver inte jiddra med att kolla din kamera , erfarenhetsmässigt så uppvisar de två kamerorna ungefär likartad dynamiskt omfång, det kan diffa lite i högdager eller skugga mellan de två.
Min 5d och 30d har liknande dynamiska omfång, 5d går lite högre i det vita, 30d går lite djupare i skuggor vid uppmätning.Lite beroende på hur Canon anser det är lämligt att lägga sina interna parametrar.
Canon EOS 400 8.4 EV likaså 5d, 30d
Här en jämförelse
http://www.dpreview.com/reviews/canoneos30d/page21.asp

En till: http://www.dpreview.com/reviews/CanonEOS400D/page19.asp

Ok. Jo jag hittade de länkarna också och 8.4 är kanske inte så imponerande men några steg vill man kanske ha i avstånd till bruset och ett par steg i headroom så är man fort uppe i 12 steg/bitar. Något extra steg vinner man väl i någon ände på att ha 14 bitar istället för 12 i slutänden kanske då? Lite extra headroom som man kan mixtra med efter exponeringen? Ska vi se de 14 bitarna så?

Och sen får man helt enkelt ange sensorns dynamik separat för den är mycket lägre än de 12-14 bitarna ändå?

Och då är vi tillbaka på min ursprungsfråga och vi har svaret: Sensorns dynamik är mycket sämre än 12 eller 14 bitar och för en "lagom" exponerad bild spelar det inte så mycket roll om kameran har 12 eller 14 bitar eller ännu mindre 22 bitar (Pentax).

Vi kunde ju se att supersensorn från kodak "endast" har knappt 72 dB vilket ju är ganska precis 12 EV. Samtidigt vet vi att 8.4 EV är ca 50 dB och det är ju inte speciellt imponerande när vi ser det så här. Om 40D också har runt 8.4 EV i dynamik återstår att se. Vi får väl se det snart i någon test om inte annat.

Mvh Per
 
PerHbg skrev:
Ok. Jo jag hittade de länkarna också och 8.4 är kanske inte så imponerande men några steg vill man kanske ha i avstånd till bruset och ett par steg i headroom så är man fort uppe i 12 steg/bitar. Något extra steg vinner man väl i någon ände på att ha 14 bitar istället för 12 i slutänden kanske då? Lite extra headroom som man kan mixtra med efter exponeringen? Ska vi se de 14 bitarna så?

SVAR :Förstår inte riktigt vad du menar??? OBS detta är Phil Askey som har mätt och fått dessa värden med sin metod, med exv Imatest så får man högre DR värden.


Och sen får man helt enkelt ange sensorns dynamik separat för den är mycket lägre än de 12-14 bitarna ändå?

Och då är vi tillbaka på min ursprungsfråga och vi har svaret: Sensorns dynamik är mycket sämre än 12 eller 14 bitar och för en "lagom" exponerad bild spelar det inte så mycket roll om kameran har 12 eller 14 bitar eller ännu mindre 22 bitar (Pentax).

SVAR: Du har missuppfattat vad 12 eller 14 bitar innebär, att dela in sensorns omfång i fler och mindre nivåer har sina poänger, exv undvika posterisering, större färgdjup men det finns en gräns när vi kan ha nytta av detta. Du ser vad du ser. Det är alltså inte självklart att man vinner något med att gå från 12 bitar till 14 vad det gäller resultatet. 12 bitar är tillräckligt, se Lars förklaring.

Vi kunde ju se att supersensorn från kodak "endast" har knappt 72 dB vilket ju är ganska precis 12 EV. Samtidigt vet vi att 8.4 EV är ca 50 dB och det är ju inte speciellt imponerande när vi ser det så här. Om 40D också har runt 8.4 EV i dynamik återstår att se. Vi får väl se det snart i någon test om inte annat.

SVAR_ Se tidigare svar högre upp, detta är Phills mätmetod, bla Imatest ger helt andra siffror , där har 5d 11 steg

Mvh Per
Mina svar se ovan
Hälsning Mikael
 
Jag vet inte vad du tror jag menar med 12-14 bitar och jag förutsate underförstått att vi talade samma sak, Micke, men vi menar säkert samma. Vi talar om AD-omvandlarens upplösning/dynamik kontra sensorn vilka är helt olika saker och vi vill passa in sensorns dynamiska område inom AD-omvandlarens gränser helt enkelt. Man väljer förstärkning/skalning och offset på den analoga signalen innan den AD-omvandlas helt enkelt. Då vet vi gränserna för vad vi kan åstadkomma. (AD- inte DA- som jag råkat skriva innan men det borde vara en självklarhet)
 
macrobild skrev:
Dynamiskt omfång är vad den är från olika sensorer. Dvs att kunna återge från det svartaste till det vitaste innan "bägaran är så mättad" att den rinner över". Se Lars förklaring, dvs från att kunna hålla ett antal elektroner före utläsning well capacity till att kunna urskilja få elektroner ovan brus som ger en detektbar signal.
DETTA ÄR DYNAMISKT OMFÅNG.Sedan hur du förvaltar den information från det svarta till det vita är en annan sak, dvs synligör olika gråskalesteg och indelning i hur få eller många dessa skall vara.
Mikael
Det är precis det jag menar. Man bör inte alls behöva 12 bitar för att kunna återge 12 EV-steg, om jag tänker rätt. Man kan ju inte räkna en "nivå" utifrån bruset delat med den totala mängden elektroner per pixel eftersom bruset bara ligget i "botten". Bruset är ju extremt litet i förhållande till pixelns elektroner när man kommer uppåt i luminanskurvan. I botten däremot så begränsas omfånget vid den punkt där bruset motsvarar antalet infångade fotoner (och alltså elektroner) med förhållandet 1:1. Vill vi bara kunna återge hela EV-steg så krävs bara 4 bitars bitdjup för 16 stegs omfång. Bilderna kommer ju att se ut som skit, men det är samma omfång. Med 12 bitar får vi 2^12 = 4096 tonala steg att leka med över den punkt där bruset motsvarar infångade fotoner. Det är 341 delsteg per EV-steg för 12 stegs omfång. Sparar vi signalen i 14 bitar så har vi istället 16384 delnivåer och 1365 nivåer i varje EV-steg vid 12 stegs totalt omfång. Det är en rejäl skillnad om man vill greja med kontrasten i efterbehandlingen. Det torde vara mycket svårare att få posterisering i himmelstoner och liknande.
 
Makten skrev:
Det är precis det jag menar. Man bör inte alls behöva 12 bitar för att kunna återge 12 EV-steg, om jag tänker rätt. Man kan ju inte räkna en "nivå" utifrån bruset delat med den totala mängden elektroner per pixel eftersom bruset bara ligget i "botten". Bruset är ju extremt litet i förhållande till pixelns elektroner när man kommer uppåt i luminanskurvan. I botten däremot så begränsas omfånget vid den punkt där bruset motsvarar antalet infångade fotoner (och alltså elektroner) med förhållandet 1:1. Vill vi bara kunna återge hela EV-steg så krävs bara 4 bitars bitdjup för 16 stegs omfång. Bilderna kommer ju att se ut som skit, men det är samma omfång. Med 12 bitar får vi 2^12 = 4096 tonala steg att leka med över den punkt där bruset motsvarar infångade fotoner. Det är 341 delsteg per EV-steg för 12 stegs omfång. Sparar vi signalen i 14 bitar så har vi istället 16384 delnivåer och 1365 nivåer i varje EV-steg vid 12 stegs totalt omfång. Det är en rejäl skillnad om man vill greja med kontrasten i efterbehandlingen. Det torde vara mycket svårare att få posterisering i himmelstoner och liknande.

Jo vi måste ha MINST 12 bitar för att kunna återge 12 EV.
 
Makten skrev:
Det är precis det jag menar. Man bör inte alls behöva 12 bitar för att kunna återge 12 EV-steg, om jag tänker rätt. Man kan ju inte räkna en "nivå" utifrån bruset delat med den totala mängden elektroner per pixel eftersom bruset bara ligget i "botten". Bruset är ju extremt litet i förhållande till pixelns elektroner när man kommer uppåt i luminanskurvan. I botten däremot så begränsas omfånget vid den punkt där bruset motsvarar antalet infångade fotoner (och alltså elektroner) med förhållandet 1:1. Vill vi bara kunna återge hela EV-steg så krävs bara 4 bitars bitdjup för 16 stegs omfång. Bilderna kommer ju att se ut som skit, men det är samma omfång. Med 12 bitar får vi 2^12 = 4096 tonala steg att leka med över den punkt där bruset motsvarar infångade fotoner. Det är 341 delsteg per EV-steg för 12 stegs omfång. Sparar vi signalen i 14 bitar så har vi istället 16384 delnivåer och 1365 nivåer i varje EV-steg vid 12 stegs totalt omfång. Det är en rejäl skillnad om man vill greja med kontrasten i efterbehandlingen. Det torde vara mycket svårare att få posterisering i himmelstoner och liknande.

Det stämmer att bruset ligger i botten men det hamnar överallt i nivåerna så att även i varje trappsteg kommer bruset in och fluktuerar signalen och därmed begränsas vi i de tonala övergångarna av signal/brus och eftersom AD-omvandlingen har sitt kvantiseringsbrus som är en direkt funktion av bitdjupet så blir det bitdjupet som sätter gränsen.
 
PerHbg skrev:
Jo vi måste ha MINST 12 bitar för att kunna återge 12 EV.
Varför? Rent matematiskt låter det som nonsens, men jag kanske har missat något?

PerHbg skrev:
Det stämmer att bruset ligger i botten men det hamnar överallt i nivåerna så att även i varje trappsteg kommer bruset in och fluktuerar signalen och därmed begränsas vi i de tonala övergångarna av signal/brus och eftersom AD-omvandlingen har sitt kvantiseringsbrus som är en direkt funktion av bitdjupet så blir det bitdjupet som sätter gränsen.
Är inte A/D-omvandlarens brus lägre än det termiska bruset på själva sensorn? Faktum är ju att bruset är högst i skuggorna och nästan obefintligt i högdagrarna, vilket talar för det. Alltså påverkas de övre "trappstegen" betydligt mindre av brus än de nedre.
 
Jag orkar inte förklara det matematiska här. Det går att läsa in sig på. Du kan inte trolla fram fler nivåer än bitdjupet anger och det är naturlagar som styr vart kvantiseringsbruset hamnar. Och ja sensorns egenbrus är högre det är det hela diskussionen har gått ut på.

Angående brus i de högre nivåernas steg kan du se det om du överdriver kontrasten så att du får kontrast i ljusa mycket svaga tonala övergångar och då kommer du att se att det blir en brusig variation på din himmel. Det vi då ser är enbart kvantiseringsbruset till skillnad i det mörka då vi ser det termiska bruset som är kraftigare och överröstar kvantiseringsbruset. Jämna övergångar i det tonala som man får i himmeln beror troligast på att man har förlorat dynamik på slutet vid sin bildbehandling för att man någonstans i kedjan har gått över till 8 bitarsläge och sedan efterbehandlat ytterligare.
 
En annan sak som inverkar och gör att det syns mer brus i det mörka är att ögat är logaritmiskt och den absoluta i spänning brusvariationen inte syns så mycket på höga nivåer som vid låga helt enkelt.Bruset blir procentuellt högre vid låga nivåer.
 
PerHbg skrev:
Jag orkar inte förklara det matematiska här. Det går att läsa in sig på. Du kan inte trolla fram fler nivåer än bitdjupet anger och det är naturlagar som styr vart kvantiseringsbruset hamnar. Och ja sensorns egenbrus är högre det är det hela diskussionen har gått ut på.
Så varför skulle det behövas 4096 nivåer för att återge 12 steg? Det verkar ju konstigt att det skulle vara någon skillnad mot övriga analoga signaler som omvandlas till digitala. Det är ju bara en fråga om upplösningen i dynamik.
 
photodo skrev:
Hur gör du när du växlar mellan 12 och 14 bitar?
Varför skulle jag växla mellan 12 och 14 bitar? Jag har bilder tagna med 1D-MkIII som innehåller 14 bitar data, och jag har andra bilder (med samma motiv) taget med andra kameror (Canon 5D, 20D, Nikon D70, D200) som innehåller 12 bitar data. Inget konstigt med detta.

Med 1D-MkIII får jag mätbara skillnad mellan samtliga steg i Stouffers T4110 gråkil (samma som Dpreview använder), det vill säga mer än 13 EV steg dynamiskt omfång. Med min 5D kan jag bara separera c:a 11 EV.

Det skulle vara intressant att veta hur du gör här. Jag har svårt att tro att du kan återge mer än 13 EV med ett normalt objektiv. Jag finner det även svårt att tro att Canons sensor kan återge mer än 13 EV.
Jag gör inget spektakulärt, bara fotograferar av en gråkil (Stouffer T4110) liggandes på ett ljusbord. Sedan mäter jag vilket värde som har registrerats i råfilen för varje tonsteg i gråkilen (medelvärde för 9x9 pixlar) totalt 41 mätvärden, från 15280 till 1000. Varje tonplatta var urskiljbar med ett mätvärde som skiljer sig från sina grannar, precis som man kan förvänta sig.

Poängen är att jag mäter på (i princip) obehandlat rådata, det vill säga direkt ur kameran utan skalning, gamma justering eller annan omräkning. Rådatat extraherar jag med en skräddarsydd variant av dcraw (som en bekant har fixat åt mig), men det går i princip att använda standard dcraw med rätt parametrar om man så vill.

Jag tar vid dessa mätningar inte hänsyn till brus, varför det praktiskt användbara dynamiska omfånget naturligtvis blir mindre. Detta då jag inte har hittat något fungerande sätt att definiera hur mycket brus vi kan acceptera. Ett sätt är naturligtvis att göra som Imatest, där ett godtyckligt valt värde får representera bruset. Tycker dock inte det är rätt sätt, speciellt som metoden premierar kameror med kraftig brusreducering utan hänsyn till förluster i detaljupplösningen. Tar gärna emot idéer om hur vi borde bestämma hur stora avvikelser vi kan tillåta utan att bruset tar över.

Exempelvis representeras EV 3 av fyra databitar när vi använder 14 bitar sensor, medan en 12 bitar sensor bara har en bit data för EV3 (om vi antar att bägge mäter från EV 14 som maxvärde). Högre datamängd medför också mindre känslighet för slumpmässigt bitbrus, exempelvis om den lägsta biten som kan registreras är rent brus.

Jag tror att du har missuppfattat det där med bitdjup och sensorer Daniel.
Det finns bara 10 sorters människor, de som kan räkna binärt och de som inte kan. Nej jag har inte missuppfattat något, men du kanske inte förstår det jag försöker säga.

Det verkar som om de flesta av er inte vet hur en sensor faktiskt fungerar, den fördelar inte värdena jämt så att varje nivå har lika många steg. Utan varje steg motsvarar en reell halvering av data, om vi utgår från ett maxvärde på 255 (8 bitar) så är nästa nivå 128, därefter 64, 32, 16, 8, 4, 2, 1. Skillnaden mellan nivå 1 och 2 är alltså 1 (bit), medan skillnaden på nivå 8 och 9 är 128 (bitar) eller möjliga mätvärden. Praktiskt nog kan vi sätta likhetstecken mellan "nivåer" och EV då bägge mäter halveringar/dubbleringar.

Så om vi exponerar efter högdagrarna med två olika kameror, en med 12 bitar data och en med 14 bitar, så kommer respektive maxvärde hos kamerorna att representera samma exponeringsvärde i motivet. Om vi sedan tittar på mätvärdet 12 EV steg lägre kan vi konstatera att kameran med 12 bitar har nått botten för vad den kan registrera med värdet 1 (förmodligen är denna nivå dessutom helt dränkt i grundbruset), detta medan kameran med 14 bitar vid samma nivå fortfarande mäter 4 (med klar potential att ligga över grundbruset).

På tal om brus så har jag med flit inte tagit med det i beräkningarna, främst för att jag inte har kunnat hitta något mätbart sätt att definiera brusnivåer (istället är brus något som uppfattas väldigt individuellt). Men också för att brus inte är direkt avhängigt om vi har 12 eller 14 bitar data, även om tonomfånget vi kan använda i praktiken kanske begränsas av bruset i skuggorna.

Det är bottenbruset som sätter den undre gränsen för DR.
Visst är det så, jag har inte påstått något annat. Men det är här den stora potentialen med 14 bitar data framför 12 bitar finns, vi kan får större mätvärden vid lika exponeringsnivåer. Vilket i sin tur medför mindre brus i skuggorna om vi exponerar rätt, och antar att bottenbruset är likvärdigt mellan kamerorna. Problemet är att mäta bottenbruset, ett förenklat sätt skulle kunna vara att mäta nivåerna hos en helt svart exponering (tagen med objektivlocket på). Om vi gör så med 1D-MkIII kameran jag använde så får vi veta att det registrerade maxvärdet är 1049 och minvärdet är 999, med medelvärdet 1024. Vilket alltså skall jämföras med mätvärdet för det mörkaste fältet i gråkilen som är max 1052, min 999, medel 1024.

Det är väl inte konstigare än att du kan se skillnader mellan appliceringen av olika tonkurvor på bilden. Det enda problemet är att om du försöker tränga ihop för många EV steg är att kontrasten i mellantonerna blir för liten, det vill säga det problem som HDR tonmappning försöker lösa.

Hur många EV-steg? Och för liten för vad då?
Tja om vi försöker återge 64 EV steg med 8 bitar gammakorrigerat data (som på en skärm) är skillnaden mellan varje tonsteg bara 4, frågan är om det är tillräcklig stor skillnad mellan tonstegen för att vi skall kunna urskilja det? Om vi istället försöker återge mer normala 8 EV steg på samma sätt blir varje tonsteg 32, frågan är alltså hur små tonskillnader vi egentligen kan uppfatta?

Diafilmen har en maxdensitet på cirka 3,7 och en filmbas på cirka 0,1. Det ger ett omfång på 3,6 motsvarande 12 steg. Det borde väl räcka ;-)?
Skämt åsido så måste du skilja mellan kontrast och omfång i motivet och i bilden. Tänk dig ett X-Y-diagram som sensitometriskt representerar en film eller en sensor, ett så kallat HD-diagram. Längs med X-axeln har vi exponering (motivets omfång) och längs med Y-axeln har vi densitet för film och antal elektroner för sensorn. Densiteten och elektronantalet kan översättas till nyanssteg i bilden. En skillnad på 0,3 D motsvarar en fördubbling eller halvering = ett steg. På sidan 8 i denna PDF finner du sådana kurvor för Velvia:
http://www.fujifilmusa.com/JSP/fuji...FAF3-148E_1.pdf
Det är vilktigt att skilja mellan X- och Y-axel. Man måste inte återge varje motiv med exakt samma skillnad mellan skuggor och högdagrar.
Här förstår jag inte vad det är du försöker säga, självklart är motivkontrast och bildkontrast, det är vad jag har försökt säga hela tiden. Men här talar jag endast om bildkontrasten, det vill säga det kontrastomfång som finns i råbilden. (Sedan tror jag inte att de som fortfarande fotograferar svart/vitt med film håller med dig om att 12 steg räcker, men visst för mig räcker det bra.)

Om vi plottar motivdensiteten mot logaritmen för mätvärdena ur råfilen får vi en motsvarande kurva, varje densitetssteg är 0,1 D (tre steg motsvarar en fördubbling eller halvering = ett steg).

Vet inte om du blev något klokare av detta.

/Daniel
 

Bilagor

  • mk-iii.gif
    mk-iii.gif
    3 KB · Visningar: 562
Jag ska försöka förklara här Martin, även om det kanske inte är helt rätt tråd men det är ju en följdfråga om 40D och dynamikdiskussionen om denna kamera så... :
Jag försöker ta det från början även om du kanske känner till det mesta,

När vi talar exponeringssteg talar vi inte linjära steg utan varje steg är en fördubbling av ett värde

Vi säger att vi nu talar om ett 8-Bitarssystem och jag ska försöka jämföra det med 8 EV och hur jag då resonerar.

Det minsta värdet vi utgår ifrån är binärt talvärdet: 00000001 = 1
och högsta:11111111 = 255

Kvantiseringsbruset vid en frekvenssampling ligger i samma nivå som lägsta talvärdet. Vi kan inte se detta som DC för inget är statiskt eftersom vi gör en uppladdning och avläsning upprepat över tiden och därmed har vi ett oundvikligt kvantiseringsbrus som ligger i nivå med lägsta talvärdet som i 8 bitarsfallet är 1 av 255.

När vi är nere på steg ett är det lägsta vi kan urskilja en variation på 1 EV utan någon direkt information mer än svart och vitt (2 nivåer) och dessutom lika mycket slumpmässig variation av dietherbruset vilket skulle vara oanvändbart för en bild. Ligger vi på en "bildnivå" motsvarande 2EV från lägsta ursprungsnivån vilket är en fördubbling så kan vi variera i totalt 4 steg mellan min och max. Går vi med exponeringen ytterligare upp med ett nivådubblering på motsvarande 3EV så kan vi variera 8 steg mellan svart och vitt osv. Så blir det och det kan vi inte göra mycket åt. Vår AD-omvandling kan inte ge oss mer information än dessa steg upp till max vad bitbredden tillåter (255). Ju mer vi exponerar ju större avstånd får vi till kvantiseringsbruset. För att få bästa kvalitet måste vi se till att vi exponerar våra pixlar i sensorn så att vi utnyttjar maximalt omfång så att det ljusaste precis prickar in 255 i toppvärde och då kommer bilden svagaste signal i det svarta att hamna på 1/255 och alltså precis i bruset och denna skillnad mellan ljusaste och mörkaste räcker för att vårt öga skall se bilden som en bra lågbrusig sådan. I videosammanhang nöjer vi oss med runt 46-50 dB vilket motsvaras av just 8 bitar i nivåintensitet och det har vi för varje färg och det är inte utan anledning vi har just 3*8 bitar i våra videopresentationssystem.

Det kanske är lite förvirrande att kalla det ett exponeringssteg som sådant eftersom det inte är användbart i de lägsta nivåerna utan jag talar bara här om absolut skillnad av nivåerna och vi skulle kunna kalla det dubbleringssteg istället för exponeringssteg. Varje stegökning i bitbredd i AD-omvandlingen är ju en dubblering också och vi måste alltså upp i ett fullt sving så att vi utnyttjar alla 8 bitar för att ha en god bildkvalité.
För att få marginal i hanteringen så har vi ännu fler bitar och jag är nog benägen att tro att en bild gärna kan hamna på 10 bitar ganska enkelt och med lite marginalre för att hantera det hela innan vi är framme på visningsmediet så blir nog 12 bitar ganska lagom att jobba med innan man slutligt går ner till 8 bitarsläget för visning.
Vad sen ytterligare 2 dubbleringssteg (14 bit) gör i praktiken kan kanske diskuteras men några db gör det kanske i lägre brus eftersom allt brus läggs samman och även kvantiseringsbruset summeras med det iofs starkare termiska sensorbruset men dock kan det bli en liten liten förbättring och frågan kvarstår hur mycket det blir i slutänden men vi tror nog att det gör ganska liten skillnad, men jag vet inte säkert eftersom vi inte har några värden på sensorns faktiska dynamik

Detta värde efterlyses på 40D alltså.
 
Senast ändrad:
macrobild skrev:
Lars skriver: För Kodaks 39 megapixel KAF 39000 (pixelpitch 6,8µm) får man 60000/16=3750 tonsteg vilket kan beskrivas utan förlust med 12 bitar (4096 nivåer). Detta motsvarar nästan 12 stegs dynamiskt omfång.

Likaså tror jag det är med Canons sensorer, det räcker alltså med 12bitar, och det var det jag svarade på tidigare. Dvs varför 14 bitar A/D?
Varför inte 22 bitars A/D om vi ändå är igång-_Pentax har ju det, men till vilken nytta?

Mikael
Visst räcker 12 bitar (det gör 8 eller 10 bitar också om man vill), men 14 bitar ger möjlighet till större dynamiskt omfång i den fångade bilden vilket fortfarande är en av de mest efterfrågade egenskaperna hos digitalkameror. Sedan ger fler bitar ett större avstånd mellan signal och brusnivå.

Pentax har inte 22 bitar i sin sensor (den har samma 12 bitar som alla andra med denna Sonysensor), utan i de kretsar där efterbehandlingen görs. Fördelen är att avrundningsfelen blir mindre när kameran gör sina beräkningar, rådatat är inte fullt så rått som vi ibland vill tro. (Skälet till 22 bitar här är det samma som att använda 16 bitar framför 8 i Photoshop.)

Däremot har Fuji S5 en sensor med 14 bitar (eller egentligen två), vilket förmodligen ensamt förklarar det bättre uppmätta dynamiska omfånget som denna kamera har visat i flera tester.

/Daniel
 
Makten skrev:
Detta låter extremt egendomligt. Hur fin den dynamiska upplösningen är har väl inget med omfånget att göra? Man kan ju spara samma sensordata med olika många bitar. Omfånget mellan ljusast och mörkast i motivet är ju fortfarande lika stort, bara att bilden kommer att posteriseras om det är för många nivåer som ska återges i förhållande till bitdjupet:-O
Här har du missförstått något grundläggande. Sensorn arbetar i princip logaritmiskt, det vill säga stegen är större vid små signalnivåer än vid stora. Så risken för posterisering är väldigt låg i högdagrarna, men ett reellt problem i de mörkaste skuggorna (tack och lov "ser" våra ögon inte detta speciellt bra).

Sedan kan vi inte med dagens sensorer spara datat med olika antal bitar, utan bitantalet är direkt proportionellt mot antalet registrerade fotoner. Det är därför som en utökning av bitdjupet från 12 till 14 bitar är önskvärt.

/Daniel
 
macrobild skrev:
Dynamiskt omfång är vad den är från olika sensorer. Dvs att kunna återge från det svartaste till det vitaste innan "bägaran är så mättad" att den rinner över". Se Lars förklaring, dvs från att kunna hålla ett antal elektroner före utläsning well capacity till att kunna urskilja få elektroner ovan brus som ger en detektbar signal.
DETTA ÄR DYNAMISKT OMFÅNG.Sedan hur du förvaltar den information från det svarta till det vita är en annan sak, dvs synligör olika gråskalesteg och indelning i hur få eller många dessa skall vara.
Mikael
Det är inte riktigt korrekt, indelningen i olika gråskalesteg som du kallar det är direkt proportionell mot antalet registrerade elektroner (fotoner). Det betyder att en kamera med 14 bitar alltid har en större bägare än en med 12 bitar (du kanske borde läsa på hur digitala sensorer faktiskt fungerar). Det betyder också att oavsett vilken motivkontrast vi har så har kameran registrerat en bild med c:a 12 eller 14 EV steg, även om de lägsta nivåerna med största sannolikhet är brus.

/Daniel
 
Daniel

Du menar således att Canon 1dmk3 sensor och enskilda pixlar har en bättre förutsättningar till att hålla ett visst antal elektroner innan utläsning än 5d . Att 1dmk3 har 13 steg och 5d har 11 enligt din mätmetod.

Intressant, tyvärr har jag inte tillgång till en 1dmk3 just nu för att verifiera dina resultat.Ej heller till ditt program som du så flitigt använder.
Spontant tycker jag skilnaden känns väldigt stor speciellt i jämförelse till Phil Askey uppmätning av 5d som du hänvisar till att använda samma gråkil som du men har fått helt andra värden.

Låt oss ta ett exempel där sensor antas vara densamma samt en 12 bitars A/D används i ena kameran och en 22bitars används i den andra kameran. Nikon och Pentax. Låt oss också anta att sensorns dynamiska omfång är lika stor, precis som jag nu antar/spekulerar i att 1dmk3 och 5d sensor har samma DR.
Dvs sensorn har i båda fallen en kapacitet att hålla ett visst antal elektroner innan utläsning. Här återkommer jag till Askey igen, tidigare testade kameror, dock ej 1dmk3 som han ännu ej har hunnit presentera test på, så visar det sig att alla Canon kameror har ungefär samma DR enligt hans metod att mäta. Nu till Pentax/Nikon,inga större skilnader kan ses mot
Nikon trots att en 22bitars A/D används i Pentax vad det gäller DR.

Jag är därför nyfiken, har Canon lyckats med att fördubbla antalet elektroner i sin sensor som sitter i 1dmk3 jämfört med 5d och detta före utläsning.
Eller tillskriver du det synbara större dynamiska omfånget är förjänsten av 14 bitar A/D iställer för en 12 bitars i de olika kamerorna?Troligtvis har sensorn samma DR i båda fallen
Mikael
 
dano skrev:
Det är inte riktigt korrekt, indelningen i olika gråskalesteg som du kallar det är direkt proportionell mot antalet registrerade elektroner (fotoner). Det betyder att en kamera med 14 bitar alltid har en större bägare än en med 12 bitar (du kanske borde läsa på hur digitala sensorer faktiskt fungerar). Det betyder också att oavsett vilken motivkontrast vi har så har kameran registrerat en bild med c:a 12 eller 14 EV steg, även om de lägsta nivåerna med största sannolikhet är brus.

/Daniel

Nu är du ute och cyklar Daniel, håll isär sensorns DR och en A/D som är på 14 bitar.
Se Lars Kjellbergs förklaring angående dynamiskt omfång hos en sensor
Du om någon bör nog läsa på, och då kan du börja med mitt inlägg ovan.



Mikael
 
ANNONS