Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Lens Diffraction Compensation

Produkter
(logga in för att koppla)
Tack! Det är gärna bortom 500 Mpix på en FF vi ska alltså men långt innan dess ska vi börja använda absoluta luppar på kring max 10-15 ggr förstoring för granskning av BILDEN och inte slentrianmässigt fortsätta med relativa 100%-luppar för konstig "bildgranskning" av pixeln/"resolving power".

Håller helt med :) Jag har ju genom åren ibland citerat en produktansvarig hos en av kameratillverkarna som sa: "kameraägare borde tvingas gå en fotokurs innan de får använda 100 % i Photoshop". Säkert lite orättvist, men jag förstår hans frustration.

Tro mig, jag har i många artiklar och oräkneliga foruminlägg de senaste åren argumenterat för principen att granskningar i 100 % väldigt lätt kan misstolkas och i synnerhet inte bör användas när man jämför kameror med olika upplösning (eftersom det i praktiken är att ställa olika hårda krav på kamerorna).

I praktiken innebär det nog att vi för en bild kommer att använda oss av runt max 300 Mpix men som alltid skalats ner från en större mängd pixlar från 500Mpix eller fler.

Jag tror ju att vi ganska snart ser kameror - även småbildskameror - med över 100 megapixel, alldeles bortsett från tekniska fördelar så kommer det vara oemotståndligt ur marknadsföringsskäl :)

Här kan man läsa ett intressant resonemang kring vilka upplösningar (räknat som antal megapixel) som kan vara intressanta framöver:
https://www.dpreview.com/forums/post/52070644

Man kan debattera siffrorna som sådana, men på det stora hela tror jag han är ganska rätt ute. Och notera, att hans slutsats inte är något egentligt hinder för sensorer med säg 300 MP eller 500 Mp och, som du är inne på, skalas ned. Som gamle FS-bekantingen Joakim ofta påpekade så är informationskvaliteten per pixel i dagens sensorer ganska låg. Att skala ned dem skulle kunna ge väsentligt mindre bildfiler med ytterst marginella förluster i total bildkvalitet. Typ att ha 400 MP och spara det som bildfiler på 100 MP eller så.

För objektivnördar skulle vara trevligt med sensorer som klarar av att avslöja vartenda objektivs brist och i detalj kunna studera varenda bländares diffraktionfenomen

Håller fullständigt med. Eller annorlunda formulerat: Tänk hur mycket enklare det blir när sensorer är så högupplösta att det enda vi behöver fundera över är just objektivets kvalitet. Idag har vi ju en situation där sensorer och objektiv begränsar varandra, men där den största begränsningen (tvärt emot vad många tror) faktiskt är sensorerna.

Eller ytterligare ett annat sätt att formulera saken: Tänk när vi har så högupplösta sensorer så att vi verkligen kan börja se - och uppskatta - hur mycket bättre våra bästa objektiv är jämfört med de som är mindre bra.

Det här är argument jag framfört i många år nu. Men, med det sagt, det finns faktiskt en bortre gräns (Kan vara 500 MP i en småbildssensor. Eller 700 MP. Eller 1000) där det faktiskt blir praktiskt rätt meningslöst att öka upplösningen ytterligare. Det enda man då gör genom att öka upplösningen vidare är att göra sensorerna dyrare, filerna större och det enda extra man samlar in utöver vad man hade innan är diffraktion (och brus). Och, jag tror vidare att vi lite före de rent tekniska begränsningarna slår till springer in i en ekonomisk vägg där ytterligare upplösning helt enkelt är ekonomiskt oförsvarbart. Kostnaden motsvarar helt enkelt inte nyttan - i alla fall för generell fotografi. Inom specialtillämpningar som t.ex. forskning har man helt andra ekonomiska parametrar, så där kan man nog driva tekniken (upplösningen) längre.

Och nej, jag håller fortfarande inte med om att diffraktion är ett problem som avtar med ökad upplösning. Det är ett fenomen som i sig självt är konstant (för ett visst objektiv och en viss bländare), men som gradvis blir allt tydligare (synligare på allt större bländaröppningar) i takt med att vi ökar upplösningarna. Och jodå, vi kan skärpa bilder med diffraktion. Så än så länge (med dagens sensorer och med de vi kommer att se de närmsta åren) är diffraktion ett ganska begränsat och hanterbart problem - bland annat med skärpningsverktyg som det Sten-Åke hittade och som startade hela den här tråden. Men vi kan inte driva den här utvecklingen i de oändliga, skärpning kan så att säga bara skjuta problemet framför oss en bit - fortsätter vi öka upplösningarna (en bra bit till från där vi är idag) når vi till slut en nivå där inte ens den mest fantastiska skärpning i världen längre kan plocka fram mer detaljer i bilden - eftersom det helt enkelt inte finns mer information att hämta ur det som kommer ur objektivet.
 
Idag finns det både ekonomiska och logistiska hinder för såna pixelmängder, tyvärr.

Det det borde däremot vara en enkel sak för programtillverkarna att införa fasta luppar på 5x, 10x, 15x och 20x...eller? En FF-sensors fysiska mått är ju t.ex. kända parametrar.

Tillägg: Använder själv Capture One och vet om deras olika "lensverktyg" men har hittills sett dessa finesser mer som möjligheter för Phase Ones egna MF-kameror och objektiv.
 
Idag finns det både ekonomiska och logistiska hinder för såna pixelmängder, tyvärr.

Jo, och med reservation för att jag inte är så djupt insatt i komponenttillverkning så finns det så vitt jag förstår en tillverkningsteknisk logik där som dessvärre går på tvärs med vad vi fotomänniskor skulle vilja se. Nämligen att en stark drivkraft inom tillverkning av elektroniska kretsar är att packa dem allt tätare just för att på så sätt få ned deras fysiska storlek. Vilket starkt förenklat leder till att de tillverkningsanläggningar där det är mest ekonomiskt effektivt att bygga så tätt packade sensorer som vill skulle vilja ha (typ mobilkamerasensorer) är ineffektiva för att tillverka så stora komponenter (Four Thirds, APS-C, småbild, mellanformat) som vi vill ha.

Det det borde däremot vara en enkel sak för programtillverkarna att införa fasta luppar på 5x, 10x, 15x och 20x...eller? En FF-sensors fysiska mått är ju t.ex. kända parametrar.

Jepp, vore ju en smal sak.

Man kan ju säga att DxOmark ändå tänker i de banorna - man kan debattera den exakta jämförelsestorleken (filstorleken) de använder när de räknar, men faktum är ju att de av alla ändå till stor del får bort pixlarna ur ekvationen när de jämför sensorers prestanda.

(Att de sedan tyvärr dumt nog valt att blanda in pixelantal som mått i sina objektivjämförelser har ju däremot orsakat mycket förvirring och onödig ångest bland objektivköpare.)

Tillägg: Använder själv Capture One och vet om deras olika "lensverktyg" men har hittills sett dessa finesser mer som möjligheter för Phase Ones egna MF-kameror och objektiv.

De är ju vana att arbeta mot extremt kräsna kunder som dessutom ofta är duktiga på skärpning i PS, vilket nog fått dem att (ursäkta uttrycket) skärpa sig lite extra när de tagit fram verktyg för skärpning av bilder. Men verktygen i sig är ju universella och även om de tagits fram för deras mellanformatskameror så fungerar de verktygen bra för de flesta kameror eller som i Sten-Åkes fall, skannade bilder.
 
Högre exakthet än vad?

Jag tycker att det är oklart vad Leif menar med möjligheter så det vore trevligt om han kunde förklara det lite mer utförligt.

Jag skrev ju att jag undrade om inte fler pixlar ger ett verktyg som det i CO möjlighet att fungera bättre förutsatt att de klarar av att registrera de delar i oskärpan som ska förstärkas och skärpas.
 
Håller helt med :) Jag har ju genom åren ibland citerat en produktansvarig hos en av kameratillverkarna som sa: "kameraägare borde tvingas gå en fotokurs innan de får använda 100 % i Photoshop". Säkert lite orättvist, men jag förstår hans frustration.

Tro mig, jag har i många artiklar och oräkneliga foruminlägg de senaste åren argumenterat för principen att granskningar i 100 % väldigt lätt kan misstolkas och i synnerhet inte bör användas när man jämför kameror med olika upplösning (eftersom det i praktiken är att ställa olika hårda krav på kamerorna).



Jag tror ju att vi ganska snart ser kameror - även småbildskameror - med över 100 megapixel, alldeles bortsett från tekniska fördelar så kommer det vara oemotståndligt ur marknadsföringsskäl :)

Här kan man läsa ett intressant resonemang kring vilka upplösningar (räknat som antal megapixel) som kan vara intressanta framöver:
https://www.dpreview.com/forums/post/52070644

Man kan debattera siffrorna som sådana, men på det stora hela tror jag han är ganska rätt ute. Och notera, att hans slutsats inte är något egentligt hinder för sensorer med säg 300 MP eller 500 Mp och, som du är inne på, skalas ned. Som gamle FS-bekantingen Joakim ofta påpekade så är informationskvaliteten per pixel i dagens sensorer ganska låg. Att skala ned dem skulle kunna ge väsentligt mindre bildfiler med ytterst marginella förluster i total bildkvalitet. Typ att ha 400 MP och spara det som bildfiler på 100 MP eller så.



Håller fullständigt med. Eller annorlunda formulerat: Tänk hur mycket enklare det blir när sensorer är så högupplösta att det enda vi behöver fundera över är just objektivets kvalitet. Idag har vi ju en situation där sensorer och objektiv begränsar varandra, men där den största begränsningen (tvärt emot vad många tror) faktiskt är sensorerna.

Eller ytterligare ett annat sätt att formulera saken: Tänk när vi har så högupplösta sensorer så att vi verkligen kan börja se - och uppskatta - hur mycket bättre våra bästa objektiv är jämfört med de som är mindre bra.

Det här är argument jag framfört i många år nu. Men, med det sagt, det finns faktiskt en bortre gräns (Kan vara 500 MP i en småbildssensor. Eller 700 MP. Eller 1000) där det faktiskt blir praktiskt rätt meningslöst att öka upplösningen ytterligare. Det enda man då gör genom att öka upplösningen vidare är att göra sensorerna dyrare, filerna större och det enda extra man samlar in utöver vad man hade innan är diffraktion (och brus). Och, jag tror vidare att vi lite före de rent tekniska begränsningarna slår till springer in i en ekonomisk vägg där ytterligare upplösning helt enkelt är ekonomiskt oförsvarbart. Kostnaden motsvarar helt enkelt inte nyttan - i alla fall för generell fotografi. Inom specialtillämpningar som t.ex. forskning har man helt andra ekonomiska parametrar, så där kan man nog driva tekniken (upplösningen) längre.

Och nej, jag håller fortfarande inte med om att diffraktion är ett problem som avtar med ökad upplösning. Det är ett fenomen som i sig självt är konstant (för ett visst objektiv och en viss bländare), men som gradvis blir allt tydligare (synligare på allt större bländaröppningar) i takt med att vi ökar upplösningarna. Och jodå, vi kan skärpa bilder med diffraktion. Så än så länge (med dagens sensorer och med de vi kommer att se de närmsta åren) är diffraktion ett ganska begränsat och hanterbart problem - bland annat med skärpningsverktyg som det Sten-Åke hittade och som startade hela den här tråden. Men vi kan inte driva den här utvecklingen i de oändliga, skärpning kan så att säga bara skjuta problemet framför oss en bit - fortsätter vi öka upplösningarna (en bra bit till från där vi är idag) når vi till slut en nivå där inte ens den mest fantastiska skärpning i världen längre kan plocka fram mer detaljer i bilden - eftersom det helt enkelt inte finns mer information att hämta ur det som kommer ur objektivet.

Väldigt bra och pedagogiskt skrivet. Det här är ju ett väldigt intressant perspektiv det du beskrivit där det är rätt lätt att bli positiv till skruva upp antalet pixlar än mer om man nu tänker sig att man processar infon och lagrar den nedskalad för att vinna kvalitet. Gör vi så kan de ju skrota pixelshift för det har ju nackdelen att det endast funkar i praktiken på stilleben - men det är ju väldigt mycket billigare.
 
.............De är ju vana att arbeta mot extremt kräsna kunder som dessutom ofta är duktiga på skärpning i PS, vilket nog fått dem att (ursäkta uttrycket) skärpa sig lite extra när de tagit fram verktyg för skärpning av bilder. Men verktygen i sig är ju universella och även om de tagits fram för deras mellanformatskameror så fungerar de verktygen bra för de flesta kameror eller som i Sten-Åkes fall, skannade bilder.

Jag hade hoppats kunna använda dem men det funkar inte praktiskt eftersom CO läser texturen på något sätt och upptäcker att mina bilder inte har motiv med en textur som verktyget är avsett för. De är helt enkelt inaktiverade. Jag tror att det har något med kornet att göra. En del andra verktyg funkar inte riktigt heller som man är van vid med vanliga digital bilder.
 
Ursäkta att jag är frånvarande från tråden ibland men det beror på att jag är ute på en sex månaders europatripp med husbil. Det är m.a.o. lite si och så med den "fria" roamingen.

En första möjlighet med diffraktion är att man börjar slippa sätta blurrfilter fram för sensorerna. En annan möjlighet är man kan gå över från 100%-luppar, efter som dessa bara kommer att visa blurr när "dimmorna återvänder", till fasta luppar som visar BILDEN. Ungefär som att skala ner från 1Gpix sensorbild till ca 330 Mpx färdig bild utan synbara brister eller fel t.o.m. vid 100%-luppigt. Visst vi slänger bort en massa "kåta" västgötapixlar för nördar men får istället en klimax värd namnet. ;-)
 
Ursäkta att jag är frånvarande från tråden ibland men det beror på att jag är ute på en sex månaders europatripp med husbil. Det är m.a.o. lite si och så med den "fria" roamingen.
Låter som en kul resa! Var är du nu?

En första möjlighet med diffraktion är att man börjar slippa sätta blurrfilter fram för sensorerna.
Diffraktion hjälper ju inte till så mycket där, eller hur menar du att det skulle fungera?

Väldigt många pixlar kan dock göra att man kan slippa antialiasfilter.
 
Ursäkta att jag är frånvarande från tråden ibland men det beror på att jag är ute på en sex månaders europatripp med husbil. Det är m.a.o. lite si och så med den "fria" roamingen.

En första möjlighet med diffraktion är att man börjar slippa sätta blurrfilter fram för sensorerna. En annan möjlighet är man kan gå över från 100%-luppar, efter som dessa bara kommer att visa blurr när "dimmorna återvänder", till fasta luppar som visar BILDEN. Ungefär som att skala ner från 1Gpix sensorbild till ca 330 Mpx färdig bild utan synbara brister eller fel t.o.m. vid 100%-luppigt. Visst vi slänger bort en massa "kåta" västgötapixlar för nördar men får istället en klimax värd namnet. ;-)

Tågluff för vuxna, typ? :)

Du har rätt i att diffraktion bidrar till ett mindre behov av AA-filer. Men även själva ökningen i upplösning i sig själv bidrar till att minska det behovet. Syftet med AA-filtret är ju i första hand att få bort moiré-fenomen, och de fenomenen avtar ju med ökad upplösning även om i inte haft diffraktion.

Det där att komma bort från 100 %-tänk håller jag nog i stort med om, nu tror jag att vi nog kunnat minska intresset för 100 %-kikande även utan diffraktion. Det är lite som med AA-filter - ju mer upplösning vi har, ju mindre blir behovet av att kika i 100 %.
 
Diffraktion hjälper ju inte till så mycket där, eller hur menar du att det skulle fungera?

Man kan ju se det som att diffraktion gradvis (dvs på allt fler bländare) börjar göra samma jobb som ett AA-filter i takt med att upplösningen ökar. Men nu är väl poängen för de flesta av oss snarare att vi vill bli av med sådan filtrering, hur den nu uppstår (AA-filter på sensorn eller diffraktion via optiken) så jag har väl svårt att se det som något direkt positivt ... :)
 
Jo, typ tågluff med pensionärsboule på kvällarna ;-)

Men eftersom ni alla 100%-iga 100%-are kommer att upptäcka moire vid bl 1.0 och 500 Mpix så måste vi ju över den mängden innan 100%-eriet försvinner...eller?
 
Man kan ju se det som att diffraktion gradvis (dvs på allt fler bländare) börjar göra samma jobb som ett AA-filter i takt med att upplösningen ökar. Men nu är väl poängen för de flesta av oss snarare att vi vill bli av med sådan filtrering, hur den nu uppstår (AA-filter på sensorn eller diffraktion via optiken) så jag har väl svårt att se det som något direkt positivt ... :)

Ja, diffraktionen minskar upplösningsförmågan hos det optiska systemet, medan fler pixlar ökar den. De motverkar varandra, förstås, men det är ju ökad upplösning man vill ha för att motverka vikning ("aliasing"). (Märks det att jag är på krigsstigen mot svengelskan? :)

Hm, det är väl ungefär samma sak som du skrev, fast med delvis andra ord. :)
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar