Linmajon skrev:
....
Man måste också se upp med ordet 'upplösning'. Enheten för upplösning är ex. linjer/mm, pixlar/tum eller liknande. Eftersom sonys CCD-platta är väldigt liten och har små pixlar har den förstås mycket högre upplösning än Canons...
Som du naturligtvis är medveten om, är det inte den senare upplösningen som uppmäts i de resultat man får av att fotografera en yta med svarta och vita linjer i allt tätare konfiguration. Finessen är att man därigenom,
helt oberoende av dimensionen på film- eller bildsensorplattan, kan få en rättvisande uppfattning av de kombinerade effekterna av optik, pixeltäthet, använda interpoleringsalgoritmer etc. i ett reproduktionssystem.
Bristande källinformation på marknaden
Som bekant är konkurrensen hård mellan kameraproducenterna på marknaden. Därför kan ingen utomstående räkna med att få tillgång till alla de pusselbitar som krävs för att möjliggöra noggranna beräkningar av något slag för de enskilda elementen i den bildproducerande kedjan. Bildsensorplattans uppbyggnad och använda interpoleringsalgoritmer hör till de "blanka sidorna". Därför får tester i olika former, som utgår från slutresultatet - bilden - fylla en viktig funktion.
Genvägar för beräkning av bildsensorns absoluta upplösningsförmåga
När det gäller den kedja av bildskapande parametrar som ligger bakom en bild i Sony 828, som i många andra fall av kameror, kan vi konstatera av vi inte har något annat att utgå från än resultatet av utförda tester, presenterade på Internet. Vi har I det aktuella fallet inga siffror på Zeiss-optikens upplösning och inga på bildsensorn (inkl. Använda interpoleringsalgoritmer), men vi har slutresultatet i form av redovisad upplösning som en kombination av samtliga element..
För att komma närmare sanningen kan man då med fördel transformera hela systemet till småbildsnivån. På den finns en uppsjö kända data att utgå från, varav upplösningssiffror på objektiven är de viktigaste.
Den enkla beräkningsalgoritm som jag använt mig av för att få en uppfattning om bildsensorns absoluta upplösningsförmåga gör, som jag tidigt påpekade, inte anspråk på att möjliggöra annat än en grov uppskattning av interna upplösningsdata (gällande optik och bildsensor). Kombinationen av dessa, presenterade på Internet och utförda av erkänt skickliga testteam, visar dock bra överensstämmelse med vad som kan förväntas.
När man resonerar om för- och nackdelar med olika pixeltäthet, pixelstorlek, använda algoritmer etc. är av särskilt intresse att få en uppfattning om bildsensorplattans isolerade bidrag till slutresultatet dvs. den egna upplösningen, helt oberoende av använd optik (= beräknad för optik med obegränsad upplösning).
Härlett ur den beräkningsalgoritm jag utnyttjat i tidigare inlägg kan man uppställa följande enkla samband:
B = O * U / ( O - U )
där:
B = Bildsensorns verkliga egenupplösning
O = Optikens upplösning
U = Upplösning uppmätt för det kombinerade systemet
Exempel: Ett objektiv med upplösningen 300 linjer/mm (svart/vit) i en viss digitalkamera resulterar i en upplösning = 70 linjer / mm vid avbildning av en testtavla. Vilken egenupplösning (B) har bildsensorn?
Beräkning:
[/B]B = 300 * 70 / (300 - 70) [/B]
B = 91 linjer / mm (bildsensorn utan optik)
Om man utgår från att beräknat värde på bildsensorns egenupplösning (91 linjer/mm) skulle vara korrekt, kan det var intressant att se hur mycket en kvalitetsförändring upp eller ner på objektivet påverkar slutresultatet.
Då gäller uttrycket:
U = O * B / (O + B)
Antag att ett objektiv med upplösning 600 linjer/mm användes. Vilken resulterande upplösning skulle man då få?
Beräkning:
U = 600 * 91 / (600 + 91)
U = 79 linjer / mm (hela systemet)
Dvs. 100 % ökning av upplösningen på objektivet ger bara 28 % ökning av den kombinerade upplösningen på hela systemet, alltså en oerhört dyr uppgradering!
Man kan sannolikt räkna med att ett företag som Zeiss gjort en optimal avvägning när receptet togs fram dvs. främst siktat in sig på korrektion av linsfel som annars skulle bli framträdande.
De påstådda linsfelen
För att åter en gång komma in på de blå/violetta effekterna som uppträder vid hög kontrast och som av så många tagits till intäkt för en misslyckad objektivkonstruktion, har jag tagit fasta på de förklaringar som erkänd expertis framlagt.
Följande jämkade förklaringsmodell verkar vara den mest sannolika:
Förutsättningar:
1. Felet uppträder över hela bildytan
2. Felet uppträder företrädesvis diagonalt
3. Felet uppträder i violett/blå färg som tillskott till konturen på en mörk yta som står i kontrast till en mycket ljus sådan
4. Standard Bayer filtrering/interpolering tillämpas
Alla av ovanstående faktorer kan som bekant konstateras överensstämma med vad som observerats på bilder tagna med Sony-kameran. Fenomenen är typiska för alla kameror som tillämpar Bayer filtrering/interpolering. Rekonstruktionsförloppet utefter begränsningen mellan en extremt ljus och mörk kontur misslyckas alltså, det ligger i systemets natur. Algoritmen ”lånar” alltså oproportionerligt mycket data från de överexponerade bildpartierna som ”klistras” över de minst exponerade. Om dessutom överladdningen i de ljusa partierna på annat sätt bidrar till ”blödningen” blir effekten ytterligare förstärkt.
En sak kan man i varje fall med stor sannolikhet fastslå, någon kromatisk avvikelse på Zeiss-optiken, som skulle ge så kraftiga effekter över hela bilden som demonstrerats, kan det knappast röra sig om. Som tidigare tagits upp skulle den hörn-i-hörn-skärpa som upplösningstestet visar annars inte kunnat uppnås.
Slutsatsen bör alltså bli att Zeiss-optiken, som väntat är av hög klass - bildsensorn likaså - dock med missar på algoritmsidan som troligen kommer att fixas i nästa omgång.