WeeBee
Aktiv medlem
Som jag förstått det så beror kromatiska abberationen på att linserna i objektiven bryter olika ljusvåglängder med olika vinklar, så att de olika färgspektran träffar olika punkter; dvs alla färger träffar inte samma punkt i sensorn.
Så som det är nu så försöker man hela tiden förbättra glaset i linserna för att minska abberationerna. All detta ser man på bilden jag bifogar här:
Här ser man tydligt hur ljuset sprids till olika punkter varav man får olika färgade kanter vid kontrastrika linjer.
Men så tänkte jag på mig själv: Jag har glasögon med styrka -6, och tycker därför att abberationerna borde vara grymma. Men vårt öga (hjärnan) lyckas filtrera bort det. Borde det därför inte vara möjligt att kunna avlägsna CA direkt på sensorn mha. processor-kapacitet och algoritmer? Är detta något som kamera bolagen håller på med, eller är det en omöjlig sak?
/Num
Så som det är nu så försöker man hela tiden förbättra glaset i linserna för att minska abberationerna. All detta ser man på bilden jag bifogar här:
Här ser man tydligt hur ljuset sprids till olika punkter varav man får olika färgade kanter vid kontrastrika linjer.
Men så tänkte jag på mig själv: Jag har glasögon med styrka -6, och tycker därför att abberationerna borde vara grymma. Men vårt öga (hjärnan) lyckas filtrera bort det. Borde det därför inte vara möjligt att kunna avlägsna CA direkt på sensorn mha. processor-kapacitet och algoritmer? Är detta något som kamera bolagen håller på med, eller är det en omöjlig sak?
/Num