Mitt resonemang grundar jag på att om jag fotar ett raster med min vanliga dslr så kommer jag nästan ända ner till varannan pixel svart, varannan vit. (dvs max teoretisk upplösning)
Samt att färginterpolationen är ju inte ett medelvärde av en jättegrupp pixlar, unika pixlar skapas med influenser från de runt om. Dessa influenser slippar man med en svartvit sensor, men det är väl också allt.
Anti alias filtret torde man knappast slippa undan.?
Vid vilken kontrast? Självklart kommer du att kunna se skillnad mellan pixlarna, men enligt min teori är den vita inte riktigt vit och den svarta inte riktigt svart eftersom de värdena explapoleras även med de omkringliggande. Så vid dålig kontrast kan man säga att det blir hög upplösning. Däremot borde en rent svartvit sensor kunna erbjuda både upplösning och kontrast på samma gång, dvs svart är 0 och vitt är 13^2. Sedan måsta man ju givetvis ha objektiv som klarar att leverera denna kontrast, men Pentax har flera som säkert kan leverera, bland de nyare verkar ju DA 35/2.8 makro vara i absolut toppklass och skulle kunna tänkas leverera detta. Tänk vilken stuns man skulle kunna få i bilderna.
Nu pratar jag teori eftersom jag aldrig har haft någon möjlighet att testa en svartvit sensor. Men skall försöka förklara ytterligare hur jag tänker. För att förenkla tänket så tänker vi oss en endimensionell sensor, alltså endast en pixel hög, men principen blir den samma även i två dimensioner. Jag illustrerar ljusintensiteten med ett värde mellan 0 och 99 där 0 är svart och 99 är vitt. Vidare antar vi att vi gar ett mycket enkelt färgfilter at typen R-G-B-R-G-B. Riktigt så ser det inte ut, men funkar för detta ändamål.
Om vi nu har en bild som i verkligheten ser ut så här:
Verklighet: 0 0 10 10 20 60 60 62 22 20 13 14 12 15 10 (16 pixlar)
Färgfilter: R G B R G B R G B R G B R G B
I färgfallet SÅ slår man ihop 3 pixlar till en för att få färgpixlar, men för att behålla upplösningen så extrapolerar man pixlar mellan.
RGB-fil: (0,0,10) (10,20,60) (60,62,22) (20,13,14) (12,15,10) (5 pixlar)
(obs jag har hoppat över steget att förändra ljusvärdet när det passerar färgfiltret så i princip antar jag att varje pixel i verkligheten har exakt matchande färg till färgfiltret.....helt absurt förstås, men hoppas att examplet funkar ändå, annars blir det för komplicerat).
Nu extrapolerar vi för att få vårt RAW-format.
RAW: (0,0,10) (5,10,35) (10,20,60) (35,41,41) (60,62,22) ... 9 pixlar
Om vi nu gör en gråskala av detta (utan några smarta algoritmer)
B/W: 3 17 30 38 40 ...
Verklig: 0 0 10 10 20 60
Väldigt stor skillnad på vad som gick in och vad som kom ut.
Detta är ett kraftigt förenklat exempel. Självklart har inte verkligheten varje pixel i en ren färg, och självklart används mer avancerade algoritmer. Men principen borde gälla, en kraftig skärpesänkning OCH kontastsänkning borde vara resultatet av en sensor med färgfilter.
Om jag får ork och tid någon dag skall jag försöka göra om detta exempel med en verkligare verklighet och se om jag kan räkna lite på vad den teoretiska begränsningen faktiskt blir, men känns för jobbigt just nu. Dessutom har jag tagit ledigt idag och kamerorna ligger laddade