Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Lens Diffraction Compensation

Produkter
(logga in för att koppla)
Vill du verkligen experimentera med skärpning är ju trots allt gamla Photoshop ett bra ställe att börja, där har du ju ett urval av både färdiga skärpningsverktyg och välkända skärpningsmetoder (sök på Youtube :) som arbetar på lite olika sätt och kan kombineras närmast i det oändliga.
Jag tycker att alla som är intresserad av hur diffraktion påverkar en digitalkamera ska titta på websidan jag refererade till på förra sidan (Cambridge in Colour). Det är mycket illustrativt att använda den interaktiva grunkan (man får bläddra ner lite, men läs gärna texten från början) där man kan välja pixelstorlek och bländare varpå man kan få en aha-upplevelse när man förstår effekten av att Airyskivan täcker mer än en pixel.

Jämför Canon EOS-1D med Sony RX100 vid bländare f/11 t.ex.
 
Suck! Tycker att Cambridge in Color borde lägga ner den där sidan för den medför inget av värde för nån samt enbart förvillar vilsna 100%-are.

Jag ser verkligen fram mot den dag då objektivs bl 1.0 sprider diffraktionscirklar över hundratals pixlar och betraktelser i 100% visar bara blurr var man än gluttar på en bild tagen med en i cement fastgjuten kamera. Först då kan vi börja mäta objektivs upplösningar med andra verktyg än pixlar av varierande storlek. Först då kan vi plocka fram den ultimata skärpan i färdiga bilder. Och, tyvärr, först då blir bilden viktigare än den enskilda pixeln.

Och Martin! Du är tyvärr totalt blockerad av 100%-luppen i dina resonemang.
 
Suck! Tycker att Cambridge in Color borde lägga ner den där sidan för den medför inget av värde för nån samt enbart förvillar vilsna 100%-are.

Då får vi nog dra in publiceringen av i princip alla böcker om optik, säga åt många tiotusentals forskare och utvecklare inom optik och mätutrustning att tänka om ... Jag menar, vad vet de om sådant? :)

Jag ser verkligen fram mot den dag då objektivs bl 1.0 sprider diffraktionscirklar över hundratals pixlar och betraktelser i 100% visar bara blurr var man än gluttar på en bild tagen med en i cement fastgjuten kamera. Först då kan vi börja mäta objektivs upplösningar med andra verktyg än pixlar av varierande storlek. Först då kan vi plocka fram den ultimata skärpan i färdiga bilder. Och, tyvärr, först då blir bilden viktigare än den enskilda pixeln.

Tja, om man tycker foto går ut på att mäta objektivs upplösning, så ... :) Att sprida ut diffraktionscirklarna över hundratals pixlar istället för några få gör faktiskt ingen reell fotografisk skillnad alls. Och sprida ut dem över flera pixlar med objektiv som inte är långt från f/1,0 är i stort sett praktiskt möjligt redan idag. Kamerapaketet i en hel del moderna mobiltelefoner är till exempel mycket nära det. Varför ingen går vidare och gör det? För att det är rätt meningslöst.

Och Martin! Du är tyvärr totalt blockerad av 100%-luppen i dina resonemang.

Tja, vi kan nog debattera till korna går hem vem av oss som är mest blockerad. Men vi kanske istället kan nöja oss att konstatera att vi nog ser lite olika på det här :)
 
Suck! Tycker att Cambridge in Color borde lägga ner den där sidan för den medför inget av värde för nån samt enbart förvillar vilsna 100%-are.
Om man för vilsen för att förstå vad diffraktion är, hur ljuset sprids, hur interferensmönstret bildas och hur alltihop påverkar den av objektivet projicerade bilden, så hjälper det inte hur långt ifrån 100% man än tittar.
Det hjälper inte ens att titta i 0% :)
 
---
Tja, vi kan nog debattera till korna går hem vem av oss som är mest blockerad. Men vi kanske istället kan nöja oss att konstatera att vi nog ser lite olika på det här :)
Martin, du är en mycket vänlig själ med ett obeskrivligt stort tålamod, och du seglar direkt upp i ledningen av 2018 års Understatement-topplista...
 
Per och Martin.

Det tråkiga med Cambridge in Color är att dom blandar in pixlar i det optiska fenomenet diffraktion. Det vilseleder totalt och för de redan vilsna ökar vilsenheten dag efter dag allt eftersom pixlarna blir mindre och mindre. Ett typiskt 100%-problem.

En sensor i FF- eller MF-format med samma pixelstorlek som de på de små sensorerna i de moderna mobiltelefonerna skulle utklassa alla sensorer som finns idag inom FF resp MF. De framkallade bilderna kommer att glänsa i skärpa, renhet och vara fria från objektivbrister och optiska fenomen samt 100%-gluttandet bortglömt, då enskilda pixlar kommer att brukas vettigare än granskande av enskild pixelskärpa. En dag kommer även kostnaderna för dessa sensorer att vara kommersiellt gångbara...


Tillägg: Sen kan det ju t.ex. bli så att några miljarder fotonräknare (jots?) kommer före en miljard pixlar på en FF-sensor...
 
Senast ändrad:
Per och Martin.

Det tråkiga med Cambridge in Color är att dom blandar in pixlar i det optiska fenomenet diffraktion. Det vilseleder totalt och för de redan vilsna ökar vilsenheten dag efter dag allt eftersom pixlarna blir mindre och mindre. Ett typiskt 100%-problem.

Där tycker jag du misstolkar dem. De blandar in pixlar i bilder vilket faktiskt inte är så ologiskt.

En sensor i FF- eller MF-format med samma pixelstorlek som de på de små sensorerna i de moderna mobiltelefonerna skulle utklassa alla sensorer som finns idag inom FF resp MF.

Så långt håller jag helt med.

De framkallade bilderna kommer att glänsa i skärpa, renhet och vara fria från objektivbrister och optiska fenomen

Och sedan börjar du fantisera. Optiska brister försvinner inte med någon slags magi bara för att vi har hög upplösning i sensorn. Optiska brister och optiska fenomen som diffraktion sätter faktiskt en bortre gräns för vad som går att fånga med en sensor, oavsett hur många pixlar den har. Det går inte att trolla fram bildinformation som försvunnit på vägen bara för att pixlar blir små.

Igen, jag upprepar, jag är en varm anhängare av hög upplösning och de små pixlar man använder för att uppnå hög upplösning. Men hur bra det än är med hög upplösning så är det faktiskt ingen magi. Det finns en bortre gräns för vad vi kan fånga och ett bra tag innan vi nått den gränsen blir det oekonomiskt att öka upplösningen vidare eftersom den praktiska vinsten i bildkvalitet inte längre står i proportion till kostnaden.

samt 100%-gluttandet bortglömt, då enskilda pixlar kommer att brukas vettigare än granskande av enskild pixelskärpa. En dag kommer även kostnaderna för dessa sensorer att vara kommersiellt gångbara...

Tillägg: Sen kan det ju t.ex. bli så att några miljarder fotonräknare (jots?) kommer före en miljard pixlar på en FF-sensor...

Läs gärna vad Eric Fossum säger, mannen som presenterat tanken på helt digitala jots. Som för övrigt inte är fotonräknare - det är vad dagens pixlar gör. En jot är mycket enklare, den antingen registrerar en foton eller så gör den inte det. Det är idén bakom det konceptet, skönheten i det är att man då får en verkligt digital sensor (varje jot behöver bara kunna hålla värdet ett eller noll) och ingen brusintroducerande analog-/digitalomvandling behövs.

Men, som Fossum själv påpekat så skulle en jots-sensor, trots mycket fler insamlingspunkter, inte nödvändigtvis ge speciellt mycket mer upplösning än en klassisk pixelsensor driven till sin maxgräns - bland annat just pga diffraktion. Vidare har han också påpekat att jots-tekniken kanske över huvud taget inte är den kostnadseffektivaste tekniken att uppnå bättre bildkvalitet. Vill man öka bildkvaliteten börjar det se mer och mer sannolikt ut att det snarare är via extremt snabba sensorer där man kan göra flera utläsningar per exponering och på så sätt samla in mer data och uppnå bättre bildkvalitet.
 
På det sätt du bryter upp mitt inlägg visar på att du är en typisk 100%-are som ständigt söker pixelskärpa även på sensorer med upp till 1GPix. Jag ser en helt användning av miljarden pixlar och det är att använda mängden för att rätta till brister genom nerskalningar till slutbilder på kring 300 Mpix.

0-1 är också ett räknesätt ;-)
 
Jag tycker att alla som är intresserad av hur diffraktion påverkar en digitalkamera ska titta på websidan jag refererade till på förra sidan (Cambridge in Colour). Det är mycket illustrativt att använda den interaktiva grunkan (man får bläddra ner lite, men läs gärna texten från början) där man kan välja pixelstorlek och bländare varpå man kan få en aha-upplevelse när man förstår effekten av att Airyskivan täcker mer än en pixel.

Jämför Canon EOS-1D med Sony RX100 vid bländare f/11 t.ex.

Tack för länken Per!
 
Suck! Tycker att Cambridge in Color borde lägga ner den där sidan för den medför inget av värde för nån samt enbart förvillar vilsna 100%-are.

Jag ser verkligen fram mot den dag då objektivs bl 1.0 sprider diffraktionscirklar över hundratals pixlar och betraktelser i 100% visar bara blurr var man än gluttar på en bild tagen med en i cement fastgjuten kamera. Först då kan vi börja mäta objektivs upplösningar med andra verktyg än pixlar av varierande storlek. Först då kan vi plocka fram den ultimata skärpan i färdiga bilder. Och, tyvärr, först då blir bilden viktigare än den enskilda pixeln.

Och Martin! Du är tyvärr totalt blockerad av 100%-luppen i dina resonemang.

Men det gör man väl och har gjort i många år. Linjer per tum använde man väl långt innan pixlar ens var påtänkta i ripsammanhang Leif. Sedan stoppar det ju inte vid 100% i den digitala världen för man kan fortsätta efter det också.

Kul att du är här förresten. Jag vet ju att du slagit ett slag förr för betraktningsavståndets betydelse för bildupplevelsen och den diskussionen kommer jag ihåg än idag. Det är ju ändå det som betyder något i praktiken om man överhuvudtaget ska bry sig om pixlar eller inte. Det kunde som sagt räcka fin fint med bara 6 MP som man fick ut ur min KM D7D på sin tid till en A3 men en reprofotad dia fotad med 24 MP blir ju inte bättre än den info dian höll när den blev fotad och i det fallet har man ju dessutom en bildtextur ibland som är mycket mer knepig än en digitalt född 6 MP bild. I det fallet kanske det inte är rekommendabelt med mer än A4 trots allt.

När det gäller skärpa så vet vi ju idag från DxO:s mätningar att kameror med fler pixlar verkligen ger högre uppmätt skärpa än kameror med färre trots att samma objektiv använts. Vilket objektiv som helst presterar alltså bättre på hus med fler pixlar än färre. Så i det fallet har Martin odiskutabelt rätt. Det borde väl inte vara konstigt då heller om diffraktionens effekter diffar beroende på sensorstorlek och pixlars storlek. Kan inte bara det faktum att skärpan diffar även påverka exv. verktygens funktion i ett program som CO? Jag ser ju själv att en del funktioner fungerar annorlunda med inskannade dian (även om det kan uppfattas som lite OT här) än med digitalt födda bilder och i en del fall inaktiveras ju t.o.m. funktionen så jag kan alltså inte använda den i CO trots att den 24 MP reprofotade bilden ju faktiskt är en kameratagen bild. Så även de motivens textur verkar ju påverka.

Gör er inte arga på varann, det för inte frågan framåt.
 
Sten-Åke:
Ett kort svar. En pixel är ingen standardiserad enhet, som t.ex. en meter, och är därför väldigt olämplig att använda som något absolut mätvärde i olika sammanhang.

Det finns inga problem med att en diffraktioncirkel sprider sig över fler mindre pixlar än över färre större. Bara möjligheter.

Jo 6 Mpix är en mängd som klarar fina utskrifter i alla storlekar om man tar med det normala betraktningsavståndet i "ekvationen".
 
En enkel illustration på en möjlighet...
 

Bilagor

  • 28D4762A-AA50-49AB-A63E-A768ABD7D754.jpg
    28D4762A-AA50-49AB-A63E-A768ABD7D754.jpg
    37.8 KB · Visningar: 28
På det sätt du bryter upp mitt inlägg visar på att du är en typisk 100%-are som ständigt söker pixelskärpa även på sensorer med upp till 1GPix. Jag ser en helt användning av miljarden pixlar och det är att använda mängden för att rätta till brister genom nerskalningar till slutbilder på kring 300 Mpix.

0-1 är också ett räknesätt ;-)

Nej Leif, i så fall, har du verkligen inte brytt dig om att läsa vad jag faktiskt skriver.
 
Eller om man som i mitt fall ganska nyss (halv tre på natten) kommit hem från en väldigt trevlig middag och använder forum som ett sätt att varva ned hjärnan lite :)

Alla är olika! Trafikledaren jag såg på video från Newark-flygplatsen satte sig varje kväll två timmar framför sitt saltvattenakvarium för att gå in för "landning".
 
Högre exakthet än vad?

Jag tycker att det är oklart vad Leif menar med möjligheter så det vore trevligt om han kunde förklara det lite mer utförligt.
 
Korrektionsverktyg borde kunna manipulera bilden med högre exakthet eller?

Ökad upplösning ger ökade korrektionsmöjligheter, det är oomtvistat - men efterhand hamnar man gradvis i en en klassisk "diminishing returns"-situation, där man måste ta till allt mer dramatiska ökningar av upplösningen för att uppnå allt mer försumbara korrigeringar. Och till sist når man nivån där det helt enkelt inte finns mer info att hämta ur det som kommer från optiken. Även med ett optiskt perfekt objektiv (och några sådana existerar inte) sätter diffraktionen en gräns för vilken upplösning ett objektiv kan prestera. I ett mer realistiskt objektiv tar det roliga slut lite tidigare, pga kombinationen av aberrationer och diffraktion.

Vi är långt från sådana nivåer i systemkameror (om nu någon var orolig :) Exakt var den nivån ligger kan man diskutera, men innan vi uppnått 500 megapixel i en småbildssensor behöver vi knappast oroa oss. Men sedan ... Tja, någonstans tar så att säga det roliga slut.

Jag vet inte riktigt vad det är Leif far efter, men jag får ett intryck att han inte riktigt tror på att diffraktion verkligen sätter en bortre gräns där mer upplösning ur bildkvalitetssynpunkt blir meningslös. Det är ju en intressant tanke, men det vore ju roligt om han i så fall lade fram något slags resonemang kring saken som gick att följa istället för att komma med avfärdande spydigheter ("typisk 100%-are som ständigt söker pixelskärpa").

Om man vill läsa lite mer om diffraktion så finns det rätt mycket skrivet om saken (veckans understatement :)

Gillar man inte texten som Per länkade till (och som jag tycker beskriver det på ett bra sätt) så kan man ju som så ofta börja på Wikipedia:
https://en.wikipedia.org/wiki/Diffraction
Citat: "The ability of an imaging system to resolve detail is ultimately limited by diffraction"

En lättläst genomgång från Olympus:
https://www.olympus-lifescience.com/en/microscope-resource/primer/lightandcolor/diffraction
Citat: "Diffraction of light plays a paramount role in limiting the resolving power of any optical instrument"
 
Tack! Det är gärna bortom 500 Mpix på en FF vi ska alltså men långt innan dess ska vi börja använda absoluta luppar på kring max 10-15 ggr förstoring för granskning av BILDEN och inte slentrianmässigt fortsätta med relativa 100%-luppar för konstig "bildgranskning" av pixeln/"resolving power".

I praktiken innebär det nog att vi för en bild kommer att använda oss av runt max 300 Mpix men som alltid skalats ner från en större mängd pixlar från 500Mpix eller fler.

För objektivnördar skulle vara trevligt med sensorer som klarar av att avslöja vartenda objektivs brist och i detalj kunna studera varenda bländares diffraktionfenomen
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar