Annons

Den råaste bayerinterpolering är att inte interpolera alls.

Produkter
(logga in för att koppla)

BjornEdstrom

Aktiv medlem
Solen skiner, det är varmt, det är fina moln ute... och det är så varmt att jag inte orkar vara ute att fotografera, så jag sitter och läser källkoden till dcraw och dokumenterar NEF-formatet. Ah, sommar. :D

Det finns flera sätt att interpolera bildsensordata och som bekant så blir resultatet lite olika beroende på vilken metod man använder. Ingen interpoleringsmetod är såvida mer korrekt än någon annan. Men...

Jag kanske fått solsting, men borde inte den råaste formen av interpolering vara att inte interpolera alls, utan bara slå ihop 4 pixlar till 1? Ett utsnitt ur rå bildsensordata som inte interpolerats kan se ut såhär.

rgrg
gbgb
rgrg
gbgb

Om man verkligen vill se världen som kameran ser den fast med vettigare färger gör vi om detta till

12
34

Det här är ju givetvis teoretiskt eftersom jag inte tror någon vill offra 75% av kamerans upplösning bara för att få bilden så obehandlad som möjligt men som ett rent tankeexperiment borde väl den här metoden vara optimal, kanske något för framtiden när vi har sensorer på fler MP än vad som behövs?

Cheers!
 
BjornEdstrom skrev:
Ah, sommar. :D
Jo, jag har haft ett långt sommaruppehåll från fotosidan, men nu tänkte jag återuppta den trevliga sysselsättningen att svara på frågor som passar mig - som denna!

Jag kanske fått solsting, men borde inte den råaste formen av interpolering vara att inte interpolera alls, utan bara slå ihop 4 pixlar till 1?
Funktionen finns redan i dcraw och växeln "-h". Men det är ingen optimal metod eftersom färginfot för varje resulterande pixel då plockas från en gnutta olika position.

Det här är ju givetvis teoretiskt eftersom jag inte tror någon vill offra 75% av kamerans upplösning [...]
Anledningen till att man kan välja detta med dcraw är att dess implementering av fullskalig interpolering är väldigt slö. För t ex visning av bilder på skärmen behövs ju inte full upplösning.
 
BjornEdstrom skrev:
Det här är ju givetvis teoretiskt eftersom jag inte tror någon vill offra 75% av kamerans upplösning bara för att få bilden så obehandlad som möjligt men som ett rent tankeexperiment borde väl den här metoden vara optimal

Problemet är ju att pixlarna är på olika plats (som nån redan påpekat), dagens kameror (utom de med foveon-sensorn och de med monokrom sensor) har ju 75% lägre upplösning än vad de skriver.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar