Install the app
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Notera: This feature may not be available in some browsers.
Du använder en lite för gammal webbläsare.
Dynamiskt omfång ?
- Trådstartare plenty1
- Start datum
jag&bilden
Aktiv medlem
Om jag förstår det rätt så ger en större sensor (oftast) ett större dynamiskt omfång i bilden.
Men rent tekniskt, vad är det som påverkar resultatet ?
Skillnaden mellan en sensorpixels lägsta utläsbara värde och dess högsta utläsbara värde avgör dynamiska omfånget.
För att sensorn ska vara så ljuskänslig som möjligt och fånga upp varje foton som träffar den är en störra pixelyta en fördel. Men samtidigt får elektronikens brus inte överrösta signalen.
Inte heller få sensorn bli "mättad" av för många fotoner för då blir signalen översyrd och det blir helt vitt.
De senaste åren har man kommit extremt långt med att sänka utläsningsbruset och på så sätt faktiskt lyckats få fram ett otrolig bra dynamiskt omfång även på mindre sensorer och pixlar.
Kan verka som petigt, men för att göra ett ganska viktigt klargörande ...
... om vi talar om dynamiskt omfång i pixlar ja Men oftast är vi mer intresserade av omfånget i bilden och då är det högsta och lägsta nivåer på bildnivå som är det centrala. Läs gärna Joakims första inlägg i tråden som Johan länkade till, han pratar (inte utan orsak) mest om vad som händer i kameran och i bilden, och bara lite kort som händer i pixlarna.
Jag säger inte att det som händer på pixelnivå är oväsentligt, bara att diskussioner ofta fastnar i ett pixelcentriskt tänkade som lätt leder lite fel. Som att tro att till ytan små pixlar är ett stort problem när det snarare handlar om att små pixlar ger vissa, hanterbara, problem som nästan alltid uppvägs av fördelarna.
Läs gärna ett av Bobs utmärkta inlägg från Dpreview, det handlar mest om brus, men därför indirekt också om DR eftersom de två sakerna ju har mycket varandra att göra
https://www.dpreview.com/forums/post/55278918
(ett av de viktiga klargöranden han gör där är ju att så kallad Full Well Capacity, FWC, har överraskande lite med pixlarna fysiska storlek att göra - det stämde i viss mån med CCD-sensorer, men knappat alls med CMOS-sensorer)
Skulle jag definiera DR så tycker jag Joakim har en bra formulering:
Det exponeringsområde inom vilket en kamera kan urskilja detaljer i bilden som är starkare än minimum-brusmängden.
Vilket väl lite fritt tolkat kan omformuleras som "hur stor skillnaden är mellan de ljusaste och de mörkaste delarna i bilden där det fortfarande går att urskilja detaljer"
Skillnaden mellan en sensorpixels lägsta utläsbara värde och dess högsta utläsbara värde avgör dynamiska omfånget.
... om vi talar om dynamiskt omfång i pixlar ja Men oftast är vi mer intresserade av omfånget i bilden och då är det högsta och lägsta nivåer på bildnivå som är det centrala. Läs gärna Joakims första inlägg i tråden som Johan länkade till, han pratar (inte utan orsak) mest om vad som händer i kameran och i bilden, och bara lite kort som händer i pixlarna.
Jag säger inte att det som händer på pixelnivå är oväsentligt, bara att diskussioner ofta fastnar i ett pixelcentriskt tänkade som lätt leder lite fel. Som att tro att till ytan små pixlar är ett stort problem när det snarare handlar om att små pixlar ger vissa, hanterbara, problem som nästan alltid uppvägs av fördelarna.
Läs gärna ett av Bobs utmärkta inlägg från Dpreview, det handlar mest om brus, men därför indirekt också om DR eftersom de två sakerna ju har mycket varandra att göra
https://www.dpreview.com/forums/post/55278918
(ett av de viktiga klargöranden han gör där är ju att så kallad Full Well Capacity, FWC, har överraskande lite med pixlarna fysiska storlek att göra - det stämde i viss mån med CCD-sensorer, men knappat alls med CMOS-sensorer)
Skulle jag definiera DR så tycker jag Joakim har en bra formulering:
Det exponeringsområde inom vilket en kamera kan urskilja detaljer i bilden som är starkare än minimum-brusmängden.
Vilket väl lite fritt tolkat kan omformuleras som "hur stor skillnaden är mellan de ljusaste och de mörkaste delarna i bilden där det fortfarande går att urskilja detaljer"
Om jag förstår det rätt så ger en större sensor (oftast) ett större dynamiskt omfång i bilden.
Men rent tekniskt, vad är det som påverkar resultatet ?
Uttryck i termer av generell informationsteori så är det ju egentligen rätt enkelt:
Mer yta = mer insamlat ljus = mer information att skapa en bild från
Nu utgår ju det ovanstående från att vi har jämförbar teknik i de sensorer vi jämför, men det har vi för det mesta idag i någorlunda nya kameror. Och rent konkret innebär det generellt att en dubbling av den använda insamlingsytan ger ett steg mer omfång. Notera att jag sa använd yta, beskär du till exempel en bild tagen med en småbildssensor så att du i praktiken bara använder halva sensorytan, ja då får du samma omfång (och andra egenskaper) som om du från början tagit samma bild med en hälften så stor aps-c-sensor och inte beskurit den.
Petter förklarade ju det tekniska och via länkarna kan du se hur andra uttrycker ungefär samma resonemang.
Similar threads
- Svar
- 10
- Visningar
- 2 K
- Svar
- 47
- Visningar
- 7 K