Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Har snubben rätt om crop factor & aperture?

Produkter
(logga in för att koppla)

AplAy

Aktiv medlem
Tjena! Jag är ny här på sidan (och inom fotografi) och försöker lära mig så mkt jag kan om optik för det hjälper mig att förstå med som händer när jag använder min kamer (en bmpcc med voigtländer 25/0,95 just nu, ska investera i en fyndig m43-fotokamera snart).

Hittade detta klipp på YouTube som hävdar att olika sensorstorlekar inte bara innebär olika crop factor (när de jämförs med FF35mm) utan man ska oxå inkludera aperture tydligen: https://www.youtube.com/watch?t=286&v=f5zN6NVx-hY

Han menar att om jag tar en bild med 25/0,95 på min bmpcc som har en crop factor på 2,8 så ska den INTE bete sig som 70/0,95 i FF35mm utan snarare som 70/2,66, dvs., man ska oxå multiplicera sin aperture med crop factor, iaf om man vill veta hur DOF ser ut då i jämförelse. Stämmer detta? Eller har snubben fel?

Alltid kul å höra från proffs som livnär sig på detta å som måste slå hål i missförstånd 24/7! :) / AplAy.
 
Det stämmer precis. Det syns tydligt i Tony Northrups videor och länken i föregående inlägg.

Vill man tänka på det matematiskt så definieras ju bländartalet av brännvidden/bländaröppningen. Ditt Voigtländer 25mm f/0,95 har t.ex. en maximal bländaröppning på 25mm/0,95 = drygt 26mm. Multiplicerar du brännvidden med crop factor måste du även göra det med bländartalet, eftersom det senare är helt avhängigt det förra. Ett 70mm f/0,95-objektiv skulle ha en bländaröppning på över 73mm, och ge ett helt annat resultat.

Men egentligen spelar det inte så stor roll om du inte redan är van att tänka i FF/småbildsformat. Att ett 25mm f/0,95-objektiv på m43 beter sig som ett 50mm f/1,9-objektiv på FF säger ju ingenting om du inte har handskats med den senare kombinationen. Det är dock bra att ha koll på eftersom artiklar på nätet oftast använder FF-termer.
 
Tack för svaren! =)

Aha, så om jag förstår rätt så ska man få samma uppfattbara skärpedjup på 25mm/0,95 på m43 som på ett 50mm/1,9 FF35mm och den sistnämnde används egentligen bara en referens för att man ska ha nått å jämföra med när man pratar om objektivs olika egenskaper på olika bildsensorstorlekar?

En sak jag aldrig har fattat dock med skärpedjup är att mindre blir i fokus ju större öppning i bländaren man har och mer blir i fokus ju mer bländaren stängs. Hur kmr detta sig optiskt talat? Min dåliga kunskap om optik är att ju fler strålar som kan nå in till bildsensorn genom att bländaren är mer öppen (lägre tal) så bör mer hamna i fokus? Men praktiskt talat så stämmer inte detta så det är nått jag inte hajar rent optiskt talat! =)
 
Tack för svaren! =)

Aha, så om jag förstår rätt så ska man få samma uppfattbara skärpedjup på 25mm/0,95 på m43 som på ett 50mm/1,9 FF35mm och den sistnämnde används egentligen bara en referens för att man ska ha nått å jämföra med när man pratar om objektivs olika egenskaper på olika bildsensorstorlekar?

En sak jag aldrig har fattat dock med skärpedjup är att mindre blir i fokus ju större öppning i bländaren man har och mer blir i fokus ju mer bländaren stängs. Hur kmr detta sig optiskt talat? Min dåliga kunskap om optik är att ju fler strålar som kan nå in till bildsensorn genom att bländaren är mer öppen (lägre tal) så bör mer hamna i fokus? Men praktiskt talat så stämmer inte detta så det är nått jag inte hajar rent optiskt talat! =)

Jag tror att du kan hitta förklaringen på flera ställen på nätet.

"Fokus" finns egentligen bara i ett tunt plan, och allting bortom eller hitom är mer eller mindre oskarpt. När man talar om skärpedjup handlar det om ett område som är väldigt lite oskarpt, där spridningscirkeln för en återgiven punkt blir mycket liten, så liten att vi uppfattar det som inte märkbart mindre skarpt än det som ligger i fokus.

En punkt som ligger längre bort, eller närmre, får en större spridningscirkel, och uppfattas inte längre som en skarp punkt, utan kan se ut som en plump, eller en tallrik, eller kanske rentav en ring, beroende på olika optiska egenskaper i det aktuella objektivet. Det oskarpa, som brukar kallas "bokeh", vill vi för det mesta ha "mjukt" återgivet, dvs att det inte har någon skarp kant utan att kanten är luddig, och att det inte har någon markant fläck i mitten, vare sig ljusare eller mörkare. Man brukar tala om "fin bokeh", och det handlar oftast om att man har en sån där mjuk utsuddning mot kanten av det som är oskarpt i bakgrunden.

Men spridningscirkeln är det som avgör "skärpedjupet", och spridningscirkelns storlek beror på storleken på objektivets ljusinsläpp. Vi kan då se det som att det handlar om den absoluta storleken på ljusinsläppet, eftersom skärpedjupet avgörs av rymdvinkeln som bländaröppningen tar upp sett från motivet. Det gör att vid lika stor slutlig avbildningsskala, kommer enbart avståndet och öppningens storlek att avgöra skärpedjupet.

Hur stor spridningscirkel man godtar för att se det som "tillräckligt skarpt", eller "inte mindre skarpt än det som ligger i skärpeplanet", är en mer eller mindre personlig bedömning, men den har också en relation till bildvinkeln, dvs storleken på sensorn. En bild tagen med större bildvinkel betraktas ofta från längre avstånd än vad som svarar mot ett naturligt perspektiv, och då kan man godta en större oskärpecirkel för att tycka att det är skarpt nog.

Så när man gör upp tabeller över skärpedjup, brukar man sätta en spridningscirkel som har en viss relation till sensordiagonalen. Tabeller eller beräkningsformler har alltid med endera formatets diagonal, eller en siffra för godtagbar spridningscirkel, som är olika för olika format.

Men det är en personlig fråga, och inte någon exakt vetenskap det handlar om, en bedömning, som ibland kan vara från fall till fall. Vi godtar vanligen större spridningscirkel för närbelägna föremål som återges stort än för sådant som är längre bort och väldigt litet i bilden. Det är helt enkelt väldigt luddigt, och inte alls exakt, som man kan förledas att tro om man använder en skärpedjupsformel (eller kalkylator) för att beräkna skärpedjupet. Det handlar inte om millimetrar om man inte är ganska nära, utan det är lite "mellan tummen och pekfingret".

För skärpedjupet finns ingen exakt gräns, utan det blir gradvis mer oskarpt ju längre bort från det "skarpa" man kommer, och godtagbar spridningscirkel är i någon mån godtycklig.
 
Ljus från en punkt träffar sensorn i en punkt, om objektivet är fokuserat på punkten. Är punkten ur fokus återges den som en fläck istället. Ju större bländaröppning desto större och suddigare fläck.

Hm, Urban var snabbare.
 
En sak jag aldrig har fattat dock med skärpedjup är att mindre blir i fokus ju större öppning i bländaren man har och mer blir i fokus ju mer bländaren stängs. Hur kmr detta sig optiskt talat? Min dåliga kunskap om optik är att ju fler strålar som kan nå in till bildsensorn genom att bländaren är mer öppen (lägre tal) så bör mer hamna i fokus? Men praktiskt talat så stämmer inte detta så det är nått jag inte hajar rent optiskt talat! =)

Jag har också länge funderat över detta och undvikit att svara när jag fått frågan. Du har fått mig att kolla på nätet varpå jag kommit fram till följande:

Föreställ dig objektivet som en lupp. Från luppens sidor drar du linjer som möts i en punkt som föreställer en sensor. Dessa linjer bildar en trekant (eller kon om man ser det i 3D) räknat från luppens sidor och sensorns mittpunkt. Om luppen är stor får du en brant vinkel mot sensorn. Om luppen är liten får du en mindre brant vinkel mot sensorn.
Ljuspartiklarna som färdas rakt och med minst brytning i luppen blir skarpare i sensorn. Ljuset som bryts i en brant vinkel vid luppens yttre kanter blir oskarpare när de möter sensorn.
Ju större vinkel desto kortare skärpedjup och tvärt om. Ritar man detta på ett papper går det lättare att förstå.

(sedan lär det finnas andra orsaker också som diffraktion och massa andra orsaker som jag inte fattar så mycket av ...)
 
Senast ändrad:
För att göra det ännu mer besvärligt. Det är meningslöst att låta pixlarna på en sensor krympa för mycket. Betänk att t ex rött ljus har våglängder upp till 700 nanometer. Försöker du avbilda rött på en mindre sensor så måste med nödvändighet de andra pixlarna runtkring målpixeln påverkas eftersom den röda ljusvågen inte får plats på den.

Eftersom sensorn inte är kyld till absoluta nollpunkten så står inte atomerna i sensorn heller särskilt still. En pixel flyttas därför runt av den termiska rörelsen som kan vara upp till 10 mikrometer. Det är också därför vi får termiskt brus.
 
För att göra det ännu mer besvärligt. Det är meningslöst att låta pixlarna på en sensor krympa för mycket. Betänk att t ex rött ljus har våglängder upp till 700 nanometer. Försöker du avbilda rött på en mindre sensor så måste med nödvändighet de andra pixlarna runtkring målpixeln påverkas eftersom den röda ljusvågen inte får plats på den.

Eftersom sensorn inte är kyld till absoluta nollpunkten så står inte atomerna i sensorn heller särskilt still. En pixel flyttas därför runt av den termiska rörelsen som kan vara upp till 10 mikrometer. Det är också därför vi får termiskt brus.


huh? Hur gör de som fotar IR med små sensorer då? Aldrig hört talas om problemet.
Visst blir IR-fotona brusigare, men att det är meningslöst är att ta i.

/Stefan
 
Det här är en hopblandning av sensor- resp. "pixel"-storlek.

Det är den enskilda fotodiodens storlek som avgör vilka ljusvåglängder som kan "armbåga sig in". En "pixel" på en sensor med Bayerfiltrering består av fyra fotodioder. Ifall du talar om sensorer gjorda för IR-ljus så används ju inga färgfilter, och varje fotodiod får dubbla diametern och fyrdubbla ytan jämfört med ifall det hade varit en sensor med Bayerfiltrering.

De små sensorstorlekar du talar om i kameror för IR-bruk är bestyckade med fotodioder vars diameter fortfarande är långt större en ca en halv IR-ljusvåglängd. Med uppgift om sensorarea och antal "pixlar" eller fotodioder kan du lätt få fram ett närmevärde för diametern på de använda fotodioderna. Du lär finna att dessa är betydligt större än våglängden för det IR-ljus som sensorn är avsedd att användas för.

Så jo, det är helt meninngslöst att krympa fotodiodernas diameter under de gränser som "naturlagarna" sätter. Det kommer att medföra att allt ljus reflekteras tillbaka bort från sensorn, inget kommer in till fotodioderna.

Vilket de flesta torde anse vara tämligen meningslöst, ifall man har för avsikt att använda sensorn i en anordning till att fota med. :)
.
 
Senast ändrad:
För att göra det ännu mer besvärligt. Det är meningslöst att låta pixlarna på en sensor krympa för mycket.

Även om man inte utnyttjar upplösningen kan många pixlar vara bra för andra saker. Tex blir det lättare att korrigera objektivfel rätt. Och de som fotar med D8x0 vet att åtminstone för de sensorerna ger det bättre ISO-egenskaper.

Betänk att t ex rött ljus har våglängder upp till 700 nanometer. Försöker du avbilda rött på en mindre sensor så måste med nödvändighet de andra pixlarna runtkring målpixeln påverkas eftersom den röda ljusvågen inte får plats på den.

Eftersom sensorn inte är kyld till absoluta nollpunkten så står inte atomerna i sensorn heller särskilt still. En pixel flyttas därför runt av den termiska rörelsen som kan vara upp till 10 mikrometer. Det är också därför vi får termiskt brus.

Har aldrig hörts talar om att vågen inte får plats och därför inte kan påverka enstaka pixlar. Vi kommer in på atom och kärnfysik (f ö den linjen jag läste på högskolan någon gång på 1800-talet) och det är såvitt jag vet fotonernas partikelegenskaper som påverkar en pixel. Därav liknelserna med regn och hinkar. Vågegenskaperna är förstås fortfarande i högsta grad relevanta i objektivet där ljuset bryts.

Men om vi håller oss till det du skrev ett ögonblick, vad har vågLÄNGDEN med pixelstorleken att göra? Den går ju längs utbredningsriktningen. Amplituden går däremot på tvären men den har inget med ljusets färg att göra och jag undrar om man ens kan mäta våghöjd i det här sammanhanget, det funkar helt enkelt inte så. Fotonerna är som partiklar när de träffar pixeln.

Du har en poäng någonstans här men jag kan inte nog för att kunna argumentera om det. Tex så går man ju upp i frekvens på ljuset när man ska tillverka kretsar med mindre transistorer.

Om någon har något mer uttömmande svar så kommer jag läsa uppmärksamt.
 
På samma sätt som det finns 1/2 vågs och 1/4 vågs antenner för radio så finns det inget hinder för att tillverka fotodioder med mindre dimensioner än en våglängd.
 
På samma sätt som det finns 1/2 vågs och 1/4 vågs antenner för radio så finns det inget hinder för att tillverka fotodioder med mindre dimensioner än en våglängd.

Är du allvarlig nu? Annars kan jag bidra med att
jag för min del anser att bländaren ska ställas in efter ljusets färg, då kan man bestämma brännvidden med formalen f(P^2/t)/C där f=bländare, P=pixelantal, t=slutartid och C=ljusets färg. Våglängden kan uteslutas då den alltid är konstant.

Skämt åsido, jag undrar vilka våglängder du har i tankarna?
 
Är du allvarlig nu? Annars kan jag bidra med att
jag för min del anser att bländaren ska ställas in efter ljusets färg, då kan man bestämma brännvidden med formalen f(P^2/t)/C där f=bländare, P=pixelantal, t=slutartid och C=ljusets färg. Våglängden kan uteslutas då den alltid är konstant.

Skämt åsido, jag undrar vilka våglängder du har i tankarna?

Ja, jag är helt allvarlig. Mottagarellementets storlek är ingen begränsning. De våglängder som är intressanta är givetvis 380-750 nm eftersom det är fotografi vi talar om.

Sefan är jag väldigt nyfiken på vilken enhet som du mäter C i eftersom våglängden tydligen inte spelar någon roll.
 
Amplituden går däremot på tvären men den har inget med ljusets färg att göra och jag undrar om man ens kan mäta våghöjd i det här sammanhanget,

Amplituden av en elektromagnetisk våg (dvs ljus) utges av en fältstyrka, och mäts i volt per meter och ampere per meter (eller motsvarande enhet) för respektive komponent. Det skiljer sig alltså konceptuellt från vad man kanske tänker sig som en "våg på vatten" odyl med en "våghöjd" motsvarande en rumslig förflyttning av/i ett medie relativt ett jämnviktsläge.
 
Amplituden av en elektromagnetisk våg (dvs ljus) utges av en fältstyrka, och mäts i volt per meter och ampere per meter (eller motsvarande enhet) för respektive komponent. Det skiljer sig alltså konceptuellt från vad man kanske tänker sig som en "våg på vatten" odyl med en "våghöjd" motsvarande en rumslig förflyttning av/i ett medie relativt ett jämnviktsläge.

Jo det håller jag med om (skrev luddigt eller fel ovan, backar från det, tack för påpekandet). Amplituden har ingen fysisk utsträckning i x-y-led och kan därmed inte ha något problem med pixelns fysiska mått.

Vågen (med våglängd) som däremot har en fysisk utsträckning i z-led borde intuitivt inte heller påverkas av pixelns mått i x-y-led. Någonstans finns det dock ett problem eftersom vid kretstillverkning går de hela tiden upp i frekvens men det kanske är vanlig diffraktion i masken, dvs ett fenomen vi inte har på ett platt sensor.
 
Ja, jag är helt allvarlig. Mottagarellementets storlek är ingen begränsning. De våglängder som är intressanta är givetvis 380-750 nm eftersom det är fotografi vi talar om.

Sefan är jag väldigt nyfiken på vilken enhet som du mäter C i eftersom våglängden tydligen inte spelar någon roll.

C är en enhet som jag uppfann för att få formeln att fungera, själv är bäste dräng :)

Nä, det är ju en blajformel. Jag blev bara nyfiken på ditt första påstående om att det inte finns några hinder för att tillverka fotodioder med mindre dimensioner än en våglängd. För jag gissar att det finns praktiska hinder att tillverka så små grejor?

Jag har hittat en sida som kan vara intressant, http://www.clarkvision.com/articles/does.pixel.size.matter/ men den känns ganska tung, så jag har inte läst noga.
 
Jag har också länge funderat över detta och undvikit att svara när jag fått frågan. Du har fått mig att kolla på nätet varpå jag kommit fram till följande:

Föreställ dig objektivet som en lupp. Från luppens sidor drar du linjer som möts i en punkt som föreställer en sensor. Dessa linjer bildar en trekant (eller kon om man ser det i 3D) räknat från luppens sidor och sensorns mittpunkt. Om luppen är stor får du en brant vinkel mot sensorn. Om luppen är liten får du en mindre brant vinkel mot sensorn.
Ljuspartiklarna som färdas rakt och med minst brytning i luppen blir skarpare i sensorn. Ljuset som bryts i en brant vinkel vid luppens yttre kanter blir oskarpare när de möter sensorn.
Ju större vinkel desto kortare skärpedjup och tvärt om. Ritar man detta på ett papper går det lättare att förstå.

(sedan lär det finnas andra orsaker också som diffraktion och massa andra orsaker som jag inte fattar så mycket av ...)

Tack så mycket för svaret. Detta kan jag faktiskt föreställa mig och det verkar logiskt i mitt föreställande.

Ju mer bländaren stängs, ju mindre ljus från glasets branta vinklar når bildsensorn och ljus från brantare vinklar leder till mindre skarpare bild när de träffar sensorn, om jag har förstått det korrekt?

På detta vis så kan jag då också förstå varför det i sådana fall är optiskt omöjligt att samma maximala DOF på större objektiv till större bildsensorer som på mindre objektiv till mindre bildsensorer.

Frågan lyder då: hur blir det om man kör med en objektivadapter? Säg att jag kör med en adapter till min m43 som låter mig sätta på ett Canon-objektiv som är (vi leker med tanken) dubbelt så stort som mitt Voigtländer 25mm/0,95 vad beträffar glasets storlek men vi säger att det ändå är ett 25mm/0,95. Bör inte bildsensorns storlek sätta käppet i hjulet här ändå vad beträffar vilken DOF jag kan få nu?
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar