ANNONS
Annons

DX vs FX, jag fattar fortfarande inte

Produkter
(logga in för att koppla)
Jag tycker att bilden jag lade upp en bit bakåt i tråden visar hur förbaskat enkelt det här egentligen är. DX är som en beskärning av FX, punkt slut. Objektivet skickar bara en bild med sina specifika egenskaper (bildvinkel, skärpedjup...) bakåt mot sensorn, så den enda skillnaden man får mellan DX och FX är en skillnad i utsnitt. Sen förstoras förstås DX-bilden ungefär dubbelt mer för att kompensera för den mindre sensorn, då den visas i samma fysiska storlek på skärmen eller utskriven i viss storlek. Kvalitetsförlusterna för DX jämfört med FX har så gott som enbart att göra med denna dubbla förstoring av DX-bilden. Jämför man t.ex. en FX-bild utskriven på A3 med en DX-bild på A4, hittar man nog väldigt lite skillnader vad gäller skärpa och brusegenskaper.

DX ger på grund av beskärningsfaktorn också en dubbelt högre skenbar avbildningsskala än FX, alltså motivet ser dubbelt större ut på DX än FX vid samma faktiska avbildningsskala, se bifogad bild. Ju högre avbildningsskala, desto mindre bländare måste man använda för att få ett visst skärpedjup.

Vill man ta ekvivalenta bilder måste man med FX använda 1,5x längre brännvidd än på DX för samma bildvinkel, vilket ökar förstoringsgraden och därmed minskar skärpedjupet. Det måste man kompensera för i sin tur genom att blända ner ett steg mer. Den ljusförlusten kompenserar man för genom att höja iso ett steg. Totalt sett samlas då lika mycket ljus och information, så bilderna blir likvärdiga.


DX vs FX vid makro.jpg
 
Jag tycker att bilden jag lade upp en bit bakåt i tråden visar hur förbaskat enkelt det här egentligen är. DX är som en beskärning av FX, punkt slut. Objektivet skickar bara en bild med sina specifika egenskaper (bildvinkel, skärpedjup...) bakåt mot sensorn, så den enda skillnaden man får mellan DX och FX är en skillnad i utsnitt. Sen förstoras förstås DX-bilden ungefär dubbelt mer för att kompensera för den mindre sensorn, då den visas i samma fysiska storlek på skärmen eller utskriven i viss storlek. Kvalitetsförlusterna för DX jämfört med FX har så gott som enbart att göra med denna dubbla förstoring av DX-bilden. Jämför man t.ex. en FX-bild utskriven på A3 med en DX-bild på A4, hittar man nog väldigt lite skillnader vad gäller skärpa och brusegenskaper.

DX ger på grund av beskärningsfaktorn också en dubbelt högre skenbar avbildningsskala än FX, alltså motivet ser dubbelt större ut på DX än FX vid samma faktiska avbildningsskala, se bifogad bild. Ju högre avbildningsskala, desto mindre bländare måste man använda för att få ett visst skärpedjup.

Vill man ta ekvivalenta bilder måste man med FX använda 1,5x längre brännvidd än på DX för samma bildvinkel, vilket ökar förstoringsgraden och därmed minskar skärpedjupet. Det måste man kompensera för i sin tur genom att blända ner ett steg mer. Den ljusförlusten kompenserar man för genom att höja iso ett steg. Totalt sett samlas då lika mycket ljus och information, så bilderna blir likvärdiga.


Visa bilaga 132017

Äntligen satt spiken i kistan ;-)
 
För att enklast se/uppleva skillnaden bör FX och DX kameran ha samma pixeldenitet per ytenhet.
Grovt räknat:
FX=12 mp mot DX 5,2 mp
FX=24 mp mot DX c:a 11 mp
FX=36 mp mot DX c:a 16 mp

Här kan man även se att motivet i centrum blir exakt lika stort vid samma avstånd, med samma objektiv och bländare på resp kamera. Även skärpedjup detsamma. Men DX-bilden är "beskuren"

Talar vi om att med en FX skapa samma utsnitt som DX med samma objektiv/bländare och pixeldensitet så ska FX-kameran flyttas framåt. Då ser man att huvudmotivet blivit större än med DX-kameran i 100% på skärm och skärpedjupet minskat.

Tror att mycket begreppsförvirring uppstår om man jämför kameror med olika pixeldensitet.

//Lennart
 
Enklast är nog att bortse från pixeldensitet, och istället betrakta en ideal bild (dvs en perfekt sensor med "oändlig" pixeldensitet). Jag tror att det förvirrar mer än det hjälper att blanda in pixeldensiteten när man ska resonera om skärpedjup.

Då blir det bara motivavstånd, brännvidd, bländare och storleken på oskärpecirkeln som påverkar skärpedjupet.

Att jag blandar in oskärpecirkelns storlek beror på att den inte nödvändigtvis är densamma för olika sensorstorlekar, eftersom man behöver förstora bilden från en liten sensor mer jämfört med en stor för att få samma slutstorlek på bilden. (Betrakningsavståndet ska dock vara detsamma.)
 
Enklast är nog att bortse från pixeldensitet, och istället betrakta en ideal bild (dvs en perfekt sensor med "oändlig" pixeldensitet). Jag tror att det förvirrar mer än det hjälper att blanda in pixeldensiteten när man ska resonera om skärpedjup.

Då blir det bara motivavstånd, brännvidd, bländare och storleken på oskärpecirkeln som påverkar skärpedjupet.

Att jag blandar in oskärpecirkelns storlek beror på att den inte nödvändigtvis är densamma för olika sensorstorlekar, eftersom man behöver förstora bilden från en liten sensor mer jämfört med en stor för att få samma slutstorlek på bilden. (Betrakningsavståndet ska dock vara detsamma.)

Tja, det tål att diskuteras! När jag skulle åskådliggöra "fenomenen" för ett antal elever på en fotokurs jag höll i så hade jag till mitt förfogande fortfarande kvar min A900 och min A77.

Den ena som bekant normalt småbildsformat (24x36) och den andra APS-C. Båda hade samma pixelantal, d v s 24mp. Det gick inte så bra just beroende på att pixeldensiteten därmed var olika. I princip dubbelt så hög på A77:an sett till dess sensorarea. De mer avancerade/insatta på kursen greppade dock det hela.

Däremot var det några som inte hängde med riktigt. Räddningen för dem bestod i att A900:an sattes i APS-C läge med samma glugg och allt övrigt lika vad gäller bländare, motiv, objektiv, avstånd, belysning etc.
Då ramlade polletten ned.

Jag tror att detta är ett bra sätt. Alternativt kan man göra som AFE visade i ett tidigare illustrerat exempel.

Dock tror jag att du kan ha en poäng i det hela, men valet av "pedagogisk" metod tror jag beror på vem/vilka man ska åskådliggöra det hela för.

//Lennart
 
Problemet är väl också att man kan förklara problemet på många olika sätt, beroende på vilken variabel i formeln man vill ändra på. Folk säger hela tiden att de andra har fel, trots att de faktiskt kan ha rätt. Men man orkar inte sätta sig in i den andres resonemang, alternativt vill hävda sig. Den enda variabeln som man inte ska laborera med är avståndet, även om det också går att ändra för att förklara sammanhanget.

I det här fallet så är det nog bäst att referera till en artikel på nätet istället, där de kan visa med bilder och skisser hur det ligger till. Hur man än skriver så behövs det bilder för att det ska bli så pass pedagogiskt så att alla fattar.

Nån som är sugen på att göra och skicka in en bra artikel till FS? :)
 
Drygt ett steg

Jag tycker att bilden jag lade upp en bit bakåt i tråden visar hur förbaskat enkelt det här egentligen är. DX är som en beskärning av FX, punkt slut. Objektivet skickar bara en bild med sina specifika egenskaper (bildvinkel, skärpedjup...) bakåt mot sensorn, så den enda skillnaden man får mellan DX och FX är en skillnad i utsnitt. Sen förstoras förstås DX-bilden ungefär dubbelt mer för att kompensera för den mindre sensorn, då den visas i samma fysiska storlek på skärmen eller utskriven i viss storlek. Kvalitetsförlusterna för DX jämfört med FX har så gott som enbart att göra med denna dubbla förstoring av DX-bilden. Jämför man t.ex. en FX-bild utskriven på A3 med en DX-bild på A4, hittar man nog väldigt lite skillnader vad gäller skärpa och brusegenskaper.

DX ger på grund av beskärningsfaktorn också en dubbelt högre skenbar avbildningsskala än FX, alltså motivet ser dubbelt större ut på DX än FX vid samma faktiska avbildningsskala, se bifogad bild. Ju högre avbildningsskala, desto mindre bländare måste man använda för att få ett visst skärpedjup.

Vill man ta ekvivalenta bilder måste man med FX använda 1,5x längre brännvidd än på DX för samma bildvinkel, vilket ökar förstoringsgraden och därmed minskar skärpedjupet. Det måste man kompensera för i sin tur genom att blända ner ett steg mer. Den ljusförlusten kompenserar man för genom att höja iso ett steg. Totalt sett samlas då lika mycket ljus och information, så bilderna blir likvärdiga.


Visa bilaga 132017
Vore det inte mer pedagogiskt att skriva att nerbländningen ska vara en faktor 1,5, eller samma som det linjära förhållandet mellan sensorernas storlek.
 
Vore det inte mer pedagogiskt att skriva att nerbländningen ska vara en faktor 1,5, eller samma som det linjära förhållandet mellan sensorernas storlek.

Nu är jag inte helt hundra på teorin lyder för det här, men jag skulle anta att det exakta förhållandet är 2,25, alltså 1,5². FX-sensorn är 2,25 gånger större till ytan, och bländartalet relaterar till diametern på bländaren och inte dess area. Så ett helt steg (faktor 2), eller lite drygt ett steg, är nog närmare sanningen. Nån som är mer insatt i den exakta teorin för det här kanske kan reda ut det här bättre än jag och rätta mig vid behov. Mina praktiska erfarenheter talar också för drygt 1 steg snarare än ett halvt.
 
Faktorn uppgavs vara c:a 1,2 EV i en tråd här på FS för c:a 5 år sedan. Typ f/4 motsvaras av c:a f/2,5.(höftat)

//Lennart
 
Det är bara att räkna: 4/1,5 = 2,67 -> f/2,67

Ja, det var det jag gjorde i skallen enl samma formel. Gällde dock Canon vilket jag naturligtvis inte skulle gjort i tråden DX vs FX (som är ett Nikonspecifikt uttryck fast även mätmässigt gäller det tredje märket som tillverkar 24x36- och APS-C kameror. Sony alltså).

Men fel blev ju rätt avseende Canon:

4/1.6=2,5 (f/2.5)

//Lennart
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar