Annons

Filter

Produkter
(logga in för att koppla)

Olle

Aktiv medlem
Nej, den här frågan handlar varken om UV-filter, polfilter eller gråfilter, utan om de filter som sitter framför sensorn i en digitalkamera.

Jag fotar fortfarande analogt och har därför inte så stor koll på dessa filter, men vill gärna veta mera. I en Canonbroschyr från 2005 nämns två filter, Lågpassfilter och RGB-filter (Red, Green, Blue?). RGB-filtret antar jag finns i mjukvaran. Lågpassfiltret borde väl vara ett UV-filter (där kom det i alla fall -;). Jag har även läst att det finns ett filter som spärrar IR-ljus. Ett högpassfilter alltså. Eller är dom båda kombinerade till ett bandpassfilter? Något som kallas AA-filter har jag också läst om, men jag vet inte riktigt vad det är. Jag har även för mig att jag läst om ytterligare filter, men minns inte nu vad det/de hette (kanske olika namn på samma sak).

Finns det någon som kan stilla min nyfikenhet när det gäller dessa filter? Vilka filter finns och vad gör de?

Olle
 
Sensorn bakom alla filtren är svartvit så för att få färg måste man ha färgade filter framför (RGB). Normalt är dessa arrangerade i ett s.k. Bayermönster där varannan pixel förses med ett grönt filter och de övriga delas lika mellan rött och blått (en sensor på 12 Mpix har alltså 6 miljoner grönkänsliga pixlar och 3 miljoner av vardera röd- och blåkänsliga.

Eftersom objektiven oftast har högre upplösningsförmåga än sensorn får man moiré-effekter om man inte sänker upplösningen innan bilden registreras av sensorn och det är den frekvensen (linjepar eller cykler per mm) som man avser när man talar om lågpassfilter (även kallat Anti-Aliasing eller AA) och inte ljusets frekvens. Till skillnad från dess motsvarigheter i andra tillämpningar så kan inte ett lågpassfilter i detta sammanhang vara skarpt, d.v.s. klippa allt över en viss frekvens och bibehålla allt under denna, utan det blir en bred zon av gradvis minskad kontrastöverföring istället. Detta innebär att man får kompromissa och inte göra AA-filtret så starkt att varje spår av moiré försvinner för då kastar man bort på tok för mycket skärpa. Ju fler pixlar sensorn har desto svagare AA-filtret klarar man sig med och desto mer av objektivets skärpa kan utnyttjas.

AA-filtret består för övrigt av tre delar, först litiumniobat eller annat dubbelbrytande material (som har olika brytningsindex beroende på polarisationsriktningen) som separerar ljuset i två delar i t.ex. horisontell led, därefter en kvartvågsplatta av samma typ som finns i cirkulära polfilter för att neutralisera polarisationen och sedan en dubbelbrytande skiva till för att separera i vertikal led. Slutresultatet blir att man separerar ljusstrålarna i fyra delar vilket kraftigt sänker kontraståtergivningen vid höga spatialfrekvenser utan att i alltför hög grad sänka den för låga.

IR och UV-filter finns också eftersom sensor ju är känslig även för de våglängderna, oftast finns också en mikrolins framför varje pixel för att samla in mer av ljuset (eftersom bara en del av pixelns yta är ljuskänslig går mycket ljus tillspillo om man inte gör så).
 
Filterplattan är en av de allra viktigaste delarna av en digitalkamera, den kan antingen hjälpa eller totalt stjälpa bildprestandan +/-....

Som Lennart sade är lågpassfiltret inte hänvisande till våglängd, utan till upplösning. Anledningen till att man inte väljer ett kaotiskt spridande AA-filter är att man då förlorar ljus ut mot de "meningslösa" 45º vinklarna. Man VILL att ljuset skall spridas rakt i Y-led, och rakt i X-led för att man ska få så stor nytta av spridningen som möjligt. Färgerna i ett Bayer-filter ligger ju omlott, så om vi tittar på en grön pixel har den gröna pixlar omkring sig i alla 45º vinklar, och röda ovanför/nedanför och blå vid var sin sida om. Det är till de motstående färgerna vi vill ha spridningen, för det är där, och BARA där, den gör nytta mot moire och aliasing.

Man brukar räkna AA-filter i spridningsprocent, och allt mellan 8 och 40% har använts. låga spridningstal - hög risk för moire, och tvärtom naturligtvis.

Anledningen till moiren är ju kanske inte helt uppenbar, men eftersom blått och rött bara mäts upp i var fjärde pixel så finns det stor risk att finkorniga detaljer "slinker imellan" dessa pixlarna, och alltså inte fångas upp av sensorn alls. Då finns det ingen information om dem (detaljerna) i råfilen.

Om vi tar två väldigt tunna svarta linjer, och låter dem löpa bredvid varandra i en lätt sned vinkel över sensorn så är det ju ganska lätt att tänka sig hur förvirrande resultatet ser ut. Det är INTE lätt att försöka lista ut hur verkligheten såg ut om man inte har något statistiskt understöd från de intill-liggande pixlarna - vilket man ju får om man sprider de skarpa kanterna lite så att de "läcker" in i de omkringliggande pixlarna...

Så att göra ett bra fungerande AA-filter är en hel vetenskap, och det är också därför inga mellanformatskameror (eller Leica) använder dem. De har helt enkelt inte utvecklingspengar tillräckligt för att kunna implementera dem rätt.

Jag har sett prisuppgifter på D3x filterpaket som egentligen innebär att BARA filterpaketet kostar lika mycket att framställa och montera som hela sensorpaketet, inklusive sensor och elektronikbräda i en instegskamera.... För mindre tillverkare, och mindre serier av kameror är detta en enorm kostnad. Det hade LÄTT lagt till 10.000 på ut-priset på en M9.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar