Annons

Färgfilter för s/v är gör det verkligen bytta?

Produkter
(logga in för att koppla)

jonas18z

Avslutat medlemskap
Först av allt vi utgår ifrån att man fotograferar i raw och normal bayer sensor.

https://www.fotosidan.se/cldoc/fototeknik/fotoskola-battre-bilder-med-filter.htm

Här i kommentrarerna påstås det att färgfilter skulle göra att man får mindre brus vid högre förstärkningar om man använder ett färgfilter.


Men kan det verkligen stämma?

Om man sätter på ett rödfilter så filtrerar man bort grön och blå, borde inte det innebära att man tappar upplösning då det inte finns någon info i andra kanaler?


Det i sin tur borde väl då bara handla om hur den röda kanalen blir exponerad?
Alltså skulle det vara samma sak som att exponera röda, korrekt och slänga bort de andra kanalerna och sen köra in det i rawprogrammet?

Eller menar man att texempele en kanal är felexponerad och man sätter på ett svagt rödfilter för att dra ner exponeringen?


Vet någon om det?
 
Eller menar man att texempele en kanal är felexponerad och man sätter på ett svagt rödfilter för att dra ner exponeringen?

Ungefär så, problemet som beskrivs själva i artikeln handlar ju om att du har ett ljus som är obalanserat i relation till hur sensorn är optimerad. Det kan leda till brus i (det här fallet) den blå färgkanalen.

Nu är det, som du är inne på, så att färgfilter (både de i sensorn och de man skruvar på objektivet) ju i praktiken stjäl ljus, vilket generellt snarare ökar brus. Men i situationer där ljuset är väldigt obalanserat (jämfört med hur sensorn är optimerad) kan de ge så mycket brus i en enda färgkanal (som den blå i det konkreta exemplet ovan) att det är mer störande.

Att färgfilter hjälper för svartvita bilder som tas upp i kommentarerna handlar delvis om samma sak, att undvika brus i specifika färgkanaler (att bilden "spricker" som Magnus uttrycker det)

Men det finns också en annan faktor som flera (inklusive du) helt tycks bortse ifrån: Det finns saker i vår omgivning som syns tydligare eller enbart syns när blir belysta av vissa frekvenser av ljus. De mest uppenbara exemplen på detta är ju IR- eller UV-fotografi. Jag tror få förnekar att det ger annorlunda bilder om man slänger bort det mesta av det synliga ljuset och enbart fångar IR- eller UV-våglängderna.

Samma, men mer subtilt gäller ju om man lyfter eller dämpar delar av det synliga ljusspektrumet. Ett ganska välkänt exempel är att du kan förändra hur moln ser ut i svartvita bilder genom att manipulera färgbalansen i bilden, vare sig det sker med färgfilter vid exponeringen, med färgjusteringar efteråt i råfilen eller - förstås mest kraftfullt - genom en kombination av bägge.

Nu är det värt att påpeka att en av de tekniska utvecklingar som - lite i tysthet - skett i synnerhet de senaste tio åren är att kamerorna (eller snarare sensorerna ihop med bearbetningen av rådata) blivit bättre vilket innebär dels gett oss ett större tonomfång vilket ju också indirekt gett oss ett allt större färgomfång i råfilerna. I synnerhet som man blivit allt bättre på att fånga in stort färdjup från början (dels genom fysiskt bättre färgfilter, dels med bättre bearbetning av rådata). Behovet av färgfilter har alltså sakta minskat, det har ju aldrig varit stort under digitaleran, men det blir sakta men säkert allt mindre i taket med att vi får råfiler som tål allt mer efterbearbetning.
 
Enklare förklaring:

För att minska brus måste man öka exponeringen (dvs mängden ljus som träffar sensorn) i den kanal som brusar pga underexponering. Risken är då att man överexponerar en annan kanal som då riskerar att "bottna" (dvs bli övermättad). Ett färgfilter hjälper då till att minska risken för att en kanal bottnar samtidigt som en annan kanal brusar.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar