Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

DOF - kvadratisk funktion?

Produkter
(logga in för att koppla)

aec

Avslutat medlemskap
Hej,

I begreppet depth of field så används ju begreppet acceptabel skärpa, vilket då skall ses som hur långt från skärpeplanet (framför respektive bakom) som det är acceptabel skärpa.

Det jag undrar över är hur snabbt skärpan avtar med ökat avstånd från skäpeplanet. Jag förmodar att det är en kvadratisk funktion där brännvidd och bländare spelar in?

Jag kan ju t.ex. i en dof tabell på t.ex dofmaster se att:
1) 50mm bränvidd med bländare 1/1,4 på 5meters avstånd ger 47cm
2) 105mm bränvidd med bländare 1/2 på 5 meters ger 27cm
(allt på "fullformat").
Slutsatsen jag drar (vilken jag undrar om den är korrekt (och gärna om den kan uttryckas matematiskt)) är att det andra exemplet ger en mycket snabbare fallande skärpa utanför dof.

Tacksam för svar.
 
Första frågan:
Hur får du ihop det med att 105F/2 och 50F/1.4 skulle vara användbara till samma sak på samma avstånd? Varför är detta ens intressant att jämföra?

Har du något du vill fotografera, och det hade passat med ca 5m avstånd med en 105mm glugg, då går du in till ca 2.5m avstånd med 50-gluggen. Detta ger ett helt annat perspektiv. men samma motivförstoring i bilden.

Din slutsats angående skärpan "bortanför" det som t.ex DoF-master anger är då fullständigt fel...

Om du fotar ett visst mål med en längre brännvidd så kommer du få ett visst "användbart skärpedjup" för det du vill ha riktigt skarpt i bilden, och en helt annan siffra för hur denna oskärpa sedan fortsätter växa när du går längre bakåt i bilden.

Om du fotar samma sak med en kortare brännvidd går du närmre, och kommer då få ett kortare skärpedjup. Men blurrigheten bakom skärpedjupet kommer vara mindre...

Matten bakom detta följer detta ungefär:
C = ( (So/Soa) -1 ) * f * M/N

C = oskärpemängd (mm)
So = fokusavstånd
Soa = avstånd till punkten du är intresserad av
f = brännvidd
M = förstoringsgraden
N = använt bländartal

M, förstoringsgraden vet du genom att bestämma vilken skala du vill ha på bilden i skärpeplanet. Vill du t.ex få med ett stående halvporträtt är skalan 1.2m dividerat med sensorbredden > på APS ca 1:50.
So blir då 50 x f (brännvidden)

Plottar du [Soa] mot olika avstånd och brännvidder kan du då t.ex få fram en sådan här - som är mycket vettigare än en ren DoF-beräkning - som ju är ganska värdelös på att berätta något om hur bilden kommer se ut. Måttet på Y-axln är mm, om man sett till att hålla rätt på alla enheter i uppställningen.
 

Bilagor

  • rearDefocusComp.gif
    rearDefocusComp.gif
    14.7 KB · Visningar: 759
Tack.

Första frågan:
Hur får du ihop det med att 105F/2 och 50F/1.4 skulle vara användbara till samma sak på samma avstånd? Varför är detta ens intressant att jämföra?

Det är en utgångspunkt för att göra en jämförelse; men du har säkert rätt i att det är bättre att sätta bildvinkeln lika istf. avståndet.

M, förstoringsgraden vet du genom att bestämma vilken skala du vill ha på bilden i skärpeplanet. Vill du t.ex få med ett stående halvporträtt är skalan 1.2m dividerat med sensorbredden > på APS ca 1:50.
So blir då 50 x f (brännvidden)

Jag fick inte ihop detta trotts dina exempel. Finns det någon referens på detta då jag gärna läser mer? Men för att konstruera ett exempel för min förståelse så;
APS kamera, 50/1,4, 5meters avstånd till objekt skulle då ge följande oskärpemång 10cm bakom målet):

((5000/5100)-1)*50*(1,2/(1/50))*(1/1,4)

uppenbarligen gör jag något fel, detta ger -42, bör det inte till att börja med vara Soa/So? sedan gör jag något fel med någon enhet.
 
Nej egentligen gör du inget "fel" mer än med skalan, det var jag som var lite otydlig. Så här ser då den riktiga uppställningen ut:

5m avstånd, 50mm brännvidd, 1.4 i bländartal
-ger en skala på (5000mm / 50mm) = 1:100

((5000/5100)-1) * 50 * (1/100) * (1/1.4) = -0.007mm

Skalan är 1/100, inte 100/1.

Att det blir ett negativt tal bakom skärpeplanet betyder att blurrningen är inverterad, spegelvänd - fullständigt irrelevant. +0.007 och -0.007mm diameter är samma sak (iaf tills du börjar titta på saker som ger assymetrisk oskärpa, men det är många steg längre fram efter detta...)

Jag började från "andra hållet" med skalan, eftersom jag i mitt exempel plottade ett par olika objektiv som skulle avbilda samma mål, i samma skala. Detta ger olika avstånd kamera > mål, så jag låste "avbildningsskalan" i stället för "avståndet".
 
Tack, nu fick jag till det.

Efter att ha labbat lite med det hela så verkar det som att C, oskärpemängden som DoF master använder för acceptabel skärpa är 0.02mm?

Hur definieras C?

Ett försök över intutiv definition skulle vara att det är det djup som bildelementet (pixeln) integreras över. Dvs. där det är skärpa är det perfekt, alltså 0 och på lite avstånd från skärpeplanet så "smetas" det refelekterade ljuset ut (i djupled, alltså, detta är C) och blir större med avståndet.
 
Tack, nu fick jag till det.

Efter att ha labbat lite med det hela så verkar det som att C, oskärpemängden som DoF master använder för acceptabel skärpa är 0.02mm?

Hur definieras C?

En punkt i motivet som inte ligger exakt i fokus kommer i teorin att återges som en jämt belyst cirkulär fläck och det är denna s.k. oskärpehetscirkel som betecknas med c. Inom skärpedjupsgränserna är c så liten att vårt synsinne med lite god vilja och fantasi tolkar fläcken som en punkt. I praktiken tillkommer sedan massor av saker som linsfel, diffraktion, kopiestorlek, betraktningsavstånd, betraktarens synskärpa m.m. men trots detta fungerar den enkla geometriska grunden rätt bra så länge man tillämpar det hela som en tumregel och betraktar resultaten som ungefärliga riktvärden.

Angående det där om att den teoretiska oskärpehetscirkeln är jämt belyst så är det avvikelserna från denna förenkling som gör att objektiv har olika "bokeh".

Tänk också på att det intressanta egentligen är den relativa oskärpehetscirkeln, d.v.s. den absoluta oskärpehetscirkeln ovan dividerat med sensorns diagonal. Måttet 0,02 mm avser troligen sensorer i APS-format (det blir ca 1/1400 av bilddiagonalen, vilket är ungefär vad man av gammal tradition brukar ligga på i tabeller). Vill man ha riktigt bra skärpa i lite större bilder bör man minska oskärpehetscirkeln eftersom standardvärdena ovan i mitt tycke är väl generösa med dagens mått mätt (vet man med sig att bilden ska visas i litet format t.ex på webben kan man istället med fördel öka den så det bästa är att experimentera och inte vara låst vid ett fast värde för alla bilder).
 
Angående det där om att den teoretiska oskärpehetscirkeln är jämt belyst så är det avvikelserna från denna förenkling som gör att objektiv har olika "bokeh".

Mycket intressant, detta är en av de saker jag funderat över ett tag, skulle du kunna utveckla det mer? Jag antar att bländaren (antal lameller och form) har en viss inverkan (går det föresten att beskriva just den lite mer än den gängse beskrivningen; hård/mjuk?

Vad är det föresten i nikons defocus control objektiv som faktiskt kan justeras med den inre ringen? Alltså 105/2,0DC respektive 135/2,0DC om de är bekanta i sammanhanget.

Tänk också på att det intressanta egentligen är den relativa oskärpehetscirkeln, d.v.s. den absoluta oskärpehetscirkeln ovan dividerat med sensorns diagonal. Måttet 0,02 mm avser troligen sensorer i APS-format (det blir ca 1/1400 av bilddiagonalen, vilket är ungefär vad man av gammal tradition brukar ligga på i tabeller).

När du skriver relativa, så avser det alltså hela sensorn eftersom den absoluta skall delas med diagonalmåttet? Vore det inte också intressant att jämföra det med pixelytan? (när den absoluta oskärpecirkeln är mindre än pixelytan (jag bortser från bayerfiltret här) så borde det ju inte kunna bli skarpare?
 
Mycket intressant, detta är en av de saker jag funderat över ett tag, skulle du kunna utveckla det mer? Jag antar att bländaren (antal lameller och form) har en viss inverkan (går det föresten att beskriva just den lite mer än den gängse beskrivningen; hård/mjuk?

Vad är det föresten i nikons defocus control objektiv som faktiskt kan justeras med den inre ringen? Alltså 105/2,0DC respektive 135/2,0DC om de är bekanta i sammanhanget.

Bländaren påverkar på så sätt att oskärpehets-"cirkeln" får samma form som bländaren (i alla fall i bilden mitt, utåt hörnen blir det sedan oftast lite deformerat åt ellipshållet av optiska skäl samt att vinjettering på stora bländare kan göra att andra saker än bländaren skärmar av ljuset och därför bestämmer formen).

Det som bär huvudansvaret för bokehns karaktär ifråga om hård/mjuk är dock inte formen utan att ljuset är ojämnt fördelat inom "cirkeln" på grund av olika linsfel (i mitten är det i synnerhet sfärisk aberration). Är cirklarna ljusast i mitten och mörknar utåt blir bokehn "mjuk" och är de istället mörkare i mitten och har ljus rand blir den "hård".

Det som justeras i Nikonobjektiven i fråga är helt enkelt graden av korrektion av i huvudsak sfärisk aberration.

Det bör också tilläggas att när denna linsfelsrelaterade bokeh är mjuk i bakgrunden så är den hård i förgrunden och vice versa, oftast är det ju dock bakgrundsoskärpan vi är mest intresserade av.

När vi sedan fokuserar på olika avstånd påverkar vi linsfelen (antingen genom eventuella inre förändringar av linsavstånden men även förändringen av avbildningsskalan i sig påverkar linsfelen ganska mycket på stora bländare). Bokehn kan därför genomgå ganska stora förändringar beroende på avstånden även om de inbördes förhållandena mellan huvudmotiv och bakgrunden råkar ge lika stora oskärepehetscirklar.

Ofta är dessutom oskärpehetscirkelns inre ljusfördelning så ojämnt fördelad att den t.ex är ljus i mitten för att sedan först avta innan den blir ljusare igen längst ut i periferin (vanligt inte minst med ljusstarka objektiv). Bländar man nu ner ett sådant här objektiv så är det den ljusa randen som först försvinner vilket gör att bokehn förändras radikalt från hård på full öppning till påtagligt mjuk ett eller två steg nerbländat (priset för detta är naturligtvis att oskärpehetscirklarna blir mindre och bakgrunden därför inte lika oskarp).


När du skriver relativa, så avser det alltså hela sensorn eftersom den absoluta skall delas med diagonalmåttet? Vore det inte också intressant att jämföra det med pixelytan? (när den absoluta oskärpecirkeln är mindre än pixelytan (jag bortser från bayerfiltret här) så borde det ju inte kunna bli skarpare?

När vi talar oskärpa, eller i alla fall är i närheten av skärpedjupsgränsen, så är oskärpehetscirklarna mycket större än pixlarna att det är rätt uppenbart att de förra dominerar. Ser vi saken ytmässigt så utgör en cirkel på 0,02 mm en knapp miljondel av en APS-sensor, d.v.s den är en tiopotens större än en pixel av idag.

Samspelet när det handlar om skärpa, d.v.s. när våra cirklar och pixlar är i samma storleksordning, är inte lika enkelt att avfärda. Det viktiga i sammanhanget är att ljusets fas försvinner när ljuset registreras på sensorn och det gör att MTF-värdet för objektivet (inklusive våra små cirklar) och MTF-värdet för sensorn (inklusive bayermönster och AA-filter) helt enkelt bara behöver multipliceras för att få det totala MTF-värdet. Att mäta upp MTF-värdena för objektiv och sensor var för sig är den svåra delen, när man gjort det har man dock avslöjat alla hemligheter (man kan säga att det finns ett slags vattentätt skott mellan objektiv och sensor på grund av att ljusets fasinformation försvinner när det registreras, detta gör att vi kan behandla objektiv och sensor som två av varandra helt fristående delar).
 
Senast ändrad:
Det som bär huvudansvaret för bokehns karaktär ifråga om hård/mjuk är dock inte formen utan att ljuset är ojämnt fördelat inom "cirkeln" på grund av olika linsfel (i mitten är det i synnerhet sfärisk aberration). Är cirklarna ljusast i mitten och mörknar utåt blir bokehn "mjuk" och är de istället mörkare i mitten och har ljus rand blir den "hård".

Efter att ha räknat en del så inser jag att "cirkeln's" storlek är ganska stor (i pixlar räknat) vilket gör att jag blir intresserad av:
1) hur är "ljusföredelningen" är fördelad över cirkelskivans yta i ett typfall?
2) eftersom "cirkelns" ljus överlagras med all annan information (t.ex. med motivet som faktiskt är i skärpeplanet), finns det något sätt att uttrycka hur mycket av bildinformationen som kommer ifrån motivet i skärpeplanet och hur mycket som är överstrålning? (jag inser att detta kraftigt beror på motiv och ljusförhållanden, men finns det någon labbuppställning eller så?)

När vi talar oskärpa, eller i alla fall är i närheten av skärpedjupsgränsen, så är oskärpehetscirklarna mycket större än pixlarna att det är rätt uppenbart att de förra dominerar. Ser vi saken ytmässigt så utgör en cirkel på 0,02 mm en knapp miljondel av en APS-sensor, d.v.s den är en tiopotens större än en pixel av idag.

Jo, jag insåg det efter att ha räknat lite, det kan ju också bli två tiopotenser,
därav mina frågor ovan om "utspädningen".

Samspelet när det handlar om skärpa, d.v.s. när våra cirklar och pixlar är i samma storleksordning, är inte lika enkelt att avfärda. Det viktiga i sammanhanget är att ljusets fas försvinner när ljuset registreras på sensorn och det gör att MTF-värdet för objektivet (inklusive våra små cirklar) och MTF-värdet för sensorn (inklusive bayermönster och AA-filter) helt enkelt bara behöver multipliceras för att få det totala MTF-värdet. Att mäta upp MTF-värdena för objektiv och sensor var för sig är den svåra delen, när man gjort det har man dock avslöjat alla hemligheter (man kan säga att det finns ett slags vattentätt skott mellan objektiv och sensor på grund av att ljusets fasinformation försvinner när det registreras, detta gör att vi kan behandla objektiv och sensor som två av varandra helt fristående delar).

Jag antar att det är därför det vid mackofotografering är extremt viktigt att få motivet i fokus, bara någon mm foksufel ger ju kraftigt oskärpa. (ganska uppenbart resonemang, men ändå intressant att kunna förstå modellen och beskriva det hela).

På sätt och vis måste det ju vara så att så länge "cirkeln" är mindre än ca. 7 - 8 punkters area så är det nästan försumbart, jag menar at bayerfiltret och interpoleringen ändå kommer att "smeta" ut och göra approximationer över den arean? Även om man skärper bilden efteråt så borde det inte gå att få fram så mycket mer information antar jag.
 
Efter att ha räknat en del så inser jag att "cirkeln's" storlek är ganska stor (i pixlar räknat) vilket gör att jag blir intresserad av:
1) hur är "ljusföredelningen" är fördelad över cirkelskivans yta i ett typfall?

Det går inte att svara på i generella termer eftersom det varierar väldigt mycket beroende på vilka och hur stora linsfelen är. Grundregeln är att ju skarpare ett objektiv är desto jämnare blir det.

2) eftersom "cirkelns" ljus överlagras med all annan information (t.ex. med motivet som faktiskt är i skärpeplanet), finns det något sätt att uttrycka hur mycket av bildinformationen som kommer ifrån motivet i skärpeplanet och hur mycket som är överstrålning? (jag inser att detta kraftigt beror på motiv och ljusförhållanden, men finns det någon labbuppställning eller så?)

En viss diffraktion runt den skarpt återgivna motivdetaljens hörn förekommer naturligtvis men jag misstänker att det inte är det du menar. Om vi alltså stuntar i diffraktionsfenomen och bara tänker raka ljusstrålar så kan det bara blir "överlagring" när det som orsakar oskärpecirkeln finns i förgrunden och alltså delvis skymmer motivdetaljen i skärpeplanet. Om istället oskärpehetscirkeln orsakas av något bakom den skarpt återgivna motivdetaljen så kommer istället den senare att skymma för det som orsakar oskärpehetscirkeln och då kan ingen överlagring ske.

Det är knepigt att förklara (och kanske skjuter jag över målet om det inte var det här du menade) men en viktig sak att hålla i minnet är att en oskärpehetscirkel från en lysande punkt i bakgrunden (en reflex i en vattendroppe t.ex. ) orsakas av att ljus från punkten ifråga når objektivets ingångspupill i lite olika vinklar beroende på var i ingångspupillen ljustrålarna från punkten träffar. Eftersom objektivet inte är inställt på denna punkt utan mer hitom kommer ljuset från punkten att spridas ut på en yta i bildplanet istället för att fokuseras till en punkt även där. Placerar vi nu en motivdetalj i skärpeplanet kommer denna att skymma just de ljusstrålar från punkten som skulle träffat bildplanet på just det ställe där nu motivdetaljen istället återges. Det blir alltså ett byte av varifrån informationen hämtas istället för en överlagring av information, ljuset som skulle skapat den del av oskärpehetscirkeln där den skarpa motivdetaljen nu finns har helt enkelt inte nått fram till objektivet och kan därför heller inte ställa till med problem

När jag läser igenom ovanstående stycke tycker jag att det tydligt bekräftas att det är "knepigt att förklara":) Det får stå kvar i alla fall för kanske går det att tolka ut något av det.


På sätt och vis måste det ju vara så att så länge "cirkeln" är mindre än ca. 7 - 8 punkters area så är det nästan försumbart, jag menar at bayerfiltret och interpoleringen ändå kommer att "smeta" ut och göra approximationer över den arean? Även om man skärper bilden efteråt så borde det inte gå att få fram så mycket mer information antar jag.

När man lägger ihop en liten oskärpehetscirkel med en mycket större "sensorsuddfläck" så blir visserligen den totala "suddfläcken" något lite större än "sensorsuddfläcken" men som du är inne på spelar detta i praktiken ingen roll i ett sådant fall. När "sensorsuddfläcken" och oskärpehetscirkeln börjar närma sig varandra i storlek blir det dock intressant eftersom man då måste ta hänsyn till båda även i praktiken, det är alltså inte så att den större av de båda diktatoriskt bestämmer skärpan helt på egen hand så länge den är störst utan även den mindre har inflytande i förhållande till sin storlek.

I just sådana här fall där det trots allt är någorlunda jämn ljusfördelning inne i fläckar och cirklar (jämfört med t.ex. de Airyfläckar som vi får av diffraktion i alla fall) fungerar det bra att som en första approximation anta att slutresultatet blir ungefär som om vi lägger ihop fläckens och cirkelns båda ytor.
 
Du har lyckats träffa precis det jag var intresserad av även om min fråga var lite luddig (jag tycker dock att ditt svar var bra, även om du själv verkar tycka att det var lite oklart?)

En viss diffraktion runt den skarpt återgivna motivdetaljens hörn förekommer naturligtvis men jag misstänker att det inte är det du menar. Om vi alltså stuntar i diffraktionsfenomen och bara tänker raka ljusstrålar så kan det bara blir "överlagring" när det som orsakar oskärpecirkeln finns i förgrunden och alltså delvis skymmer motivdetaljen i skärpeplanet. Om istället oskärpehetscirkeln orsakas av något bakom den skarpt återgivna motivdetaljen så kommer istället den senare att skymma för det som orsakar oskärpehetscirkeln och då kan ingen överlagring ske.
...

Jag gjorde en liten illustration för att se om jag förstår det hela rätt och som kan göra det lite enkllare att beskriva.

1.gif

1 och 2 är objekten som forograferas varav 1 är mitt i fokusplanet. Fokusplanet är på avstånd A och objekt 2 är på avstånd B från A. Ljuset kommer in snett från ovan. Linjen L är en referenslinje.

I det här fallet så kommer informationen som träffar sensorn under linjen L bestå av det som ligger i skärpa (ungefär) och det som ligger ovanför L kommer ju från objekt 2, dvs. i oskärpa. Ingen överstrålning kan ske (åtminstone nära L) eftersom objekt 2 befinner sig bakom L. (Jag bortser från difraktion).

Om objekt 2 hade legat framför objekt 1 (såg motsvarande B framfrör objekt 1) så hade det skett överstrålning i närheten av linjen L på sensorn från objekt 2 (som ligger framför fokusplanet).

Det går inte att svara på i generella termer eftersom det varierar väldigt mycket beroende på vilka och hur stora linsfelen är. Grundregeln är att ju skarpare ett objektiv är desto jämnare blir det.

Det jag är ute efter är hur stor energi ljuset i oskärpecirklarna har jämfört ljuset från det som befinner sig i fokusplanet. (jag inser att olika typer av linsfel och omständigheter etc har extremt betydelse här). Men går det att renodla eller är det praktiskt ointressant?
 
Tack, den var fin. Såg ni att den var skriven av "H. H. Nasse" föresten, nästan ett dåligt skämt :)
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar