The_SuedeII
Aktiv medlem
Martin, man läser inte ut "sensorn" innan exponeringen är klar, däremot finns möjligheten att isolera kapacitansen som lagrar laddningen som generas i fotodioden. Denna kapacitans är kopplad åt tre håll...:
-mot fotodioden
-mot "nollning", eller rättare sagt försättsspänning.
-mot laddning/spänningsomvandlingen - som sitter direkt vid pixeln på en CMOS.
Man kan ge kopplingen mellan fotodiod och kapacitans (vägen som är "öppen" när man gör själva exponeringen) en mättnadsberoende förlustfaktor, ju mer kapacitansen mättas (då man får blooming eller bleeding), desto mer av laddningen förlorar man till "jord" kan man säga. Lite som att ha en gamma-omvandling på mer exponerade delar direkt på sensorn... Man får en avtagande effektivitetskurva, med ett rimligt konstruerat system så faller effektiviteten med 1/mättnadsgraden. Detta är bra eftersom vi uppfattar ljuseffekt logaritmiskt, men dåligt eftersom det ger ännu fler parametrar att hålla reda på för slutberäkningen av den verkliga mängden ljus som träffat sensorn... Fler parametrar > fler felkällor. Eftersom vi nu infört en olinjäritet så är det dessutom så att felet (avvikelsen) per pixel inte är inbördes samma mellan pixeln/pixelgenomsnittet beroende på mättnadsgraden... Nu finns det ju dessutom en "brytpunkt" at hålla reda på, vid vilken mättning har just DENNA pixelns effektivitet sjunkt till, säg 50%?
-mot fotodioden
-mot "nollning", eller rättare sagt försättsspänning.
-mot laddning/spänningsomvandlingen - som sitter direkt vid pixeln på en CMOS.
Man kan ge kopplingen mellan fotodiod och kapacitans (vägen som är "öppen" när man gör själva exponeringen) en mättnadsberoende förlustfaktor, ju mer kapacitansen mättas (då man får blooming eller bleeding), desto mer av laddningen förlorar man till "jord" kan man säga. Lite som att ha en gamma-omvandling på mer exponerade delar direkt på sensorn... Man får en avtagande effektivitetskurva, med ett rimligt konstruerat system så faller effektiviteten med 1/mättnadsgraden. Detta är bra eftersom vi uppfattar ljuseffekt logaritmiskt, men dåligt eftersom det ger ännu fler parametrar att hålla reda på för slutberäkningen av den verkliga mängden ljus som träffat sensorn... Fler parametrar > fler felkällor. Eftersom vi nu infört en olinjäritet så är det dessutom så att felet (avvikelsen) per pixel inte är inbördes samma mellan pixeln/pixelgenomsnittet beroende på mättnadsgraden... Nu finns det ju dessutom en "brytpunkt" at hålla reda på, vid vilken mättning har just DENNA pixelns effektivitet sjunkt till, säg 50%?