Annons

ny slags sensor (fundering)

Produkter
(logga in för att koppla)

RE1NE V1NDEBR0

Avslutat medlemskap
satt och funderade om man inte skulle kunna göra en sensor med oändligt dynamiskt omfång (skulle väl vara rätt najs)

det skulle vara en sensor där man lyckas mäta antalet fotoner/tidsenhet och output för varje pixel skulle vara en lutning som motsvarade antalet fotoner/tidsenhet
tjusningen skulle då vara att en solig dag skulle man göra en exponering på en sekund och allt skulle vara utfrätt men det skulle inte spela nån roll för att kameran skulle få den info den behövde innan bilden frätte ut

om solen är i bild skulle den få exponeringen 300 000 fotoner/(ms*pixel) (proktonumerologiskt värde)
nåt solbelyst skulle få exponeringen 20 000 fotoner/(ms*pixel)
nåt i skugga skulle så exponeringen 3000 fotoner/(ms*pixel)

genom att ha en nog lång exponering så att även de mörkaste delarna av en bild skulle få en pålitlig lutning på kurvan (fotoner/(ms*pixel)) så skulle man ha en oändligt dynamiskt omfång

problemet är väl bara att komma på et sätt att man kan läsa ut datat från sensorn konternueligt ist för bara vid exponeringstidens slut

eller är jag helt ute och cyklar?
 
Nejdå, men det är just utläsningen som är problemet. Sensorn läses i radvis, och man kan bara "isolera" en rad åt gången. Man kan alltså inte komma åt två pixlar placerade på koordinaterna [x;y] - [10;30] och [100;300] samtidigt.
[10;30] och [10:300] funkar, och [100:30] och [300;30] funkar.

Att läsa sensorn flera gånger i samma exponering fungerar tyvärr inte heller, man förlorar en del tid mellan varje läsomgång till reset av pixel-laddningar och CDS. Man skulle förlora hela effekten av fotonbrusreducering i skuggorna till elektronikbrus.

Det jag har funderat på är om man kan göra en "lossy" pixel - alltså ge en elektronbrunn en laddningsvariabel förlust. Ju närmre mättning man kommer, desto mer av laddningarna som fotodioden skickar ifrån sig går "till jord" i stället för att lagras laddningsbrunnen. Detta skulle ge en automatisk "gamma-korrigering" direkt i pixeln, och ge möjlighet att exponera högdagrar åtminstone ett par Ev högre.
 
Här kommer fler galna idéer! Att få nåt att magnetiskt vända pol är ju enkelt, tänk er sensorerpixelrader där pixlarna sitter ihop på varandras ryggar, alltså två st på samma plats, den första femhundradelen av exponeringen tas upp av sensorerna som är rättvända sen så vänds raden blixtsnabbt så den bakre kommer fram och den exponerar säg en sextiondel samtidigt som infon från de främre raden överförs till processorn och sen när den bakre exponerat klart laddas den infon å så bakas de ihop!
?
Man kan naturligtvis göra pixelraderna trekantiga för tre olika exponeringar o s v.

:D
 
Nejdå, men det är just utläsningen som är problemet. Sensorn läses i radvis, och man kan bara "isolera" en rad åt gången. Man kan alltså inte komma åt två pixlar placerade på koordinaterna [x;y] - [10;30] och [100;300] samtidigt.
[10;30] och [10:300] funkar, och [100:30] och [300;30] funkar.

ne med daaaaaagens teknik ja :D
men för framtiden: om varje foton, genererade en elektron som i sin tur utlästes direkt från varje pixel, helt oavsett vilka rader pixlarna sitter i... taadaaa...
 
Här kommer fler galna idéer! Att få nåt att magnetiskt vända pol är ju enkelt, tänk er sensorerpixelrader där pixlarna sitter ihop på varandras ryggar, alltså två st på samma plats, den första femhundradelen av exponeringen tas upp av sensorerna som är rättvända sen så vänds raden blixtsnabbt så den bakre kommer fram och den exponerar säg en sextiondel samtidigt som infon från de främre raden överförs till processorn och sen när den bakre exponerat klart laddas den infon å så bakas de ihop!
?
Man kan naturligtvis göra pixelraderna trekantiga för tre olika exponeringar o s v.

:D

kan bli problem med att få plats med all elektronik som måste snurra med... kanske... men det är ju framtiden vi pratar om... och då kan man hitta på vad som helst
 
Varför fortsätta med pixlar? Det blir mycket bättre med en sensor som rapporterar koordinaterna, och våglängden, för varje foton som träffar sensorn. En bildfil består då av en serie tidsmärkta koordinater och bildens dynamik begränsas enbart av acceptabel exponeringstid (längre exponering ger större dynamiskt område) och lagringmediats storlek. I och med att varje foton har en tidsstämpel kan nya funktioner införas i framkallaren, t.ex. kan exponeringstiden (både start och stopp) justeras genom att oönskade fotoner ignoreras.
 
Varför fortsätta med pixlar? Det blir mycket bättre med en sensor som rapporterar koordinaterna, och våglängden, för varje foton som träffar sensorn. En bildfil består då av en serie tidsmärkta koordinater och bildens dynamik begränsas enbart av acceptabel exponeringstid (längre exponering ger större dynamiskt område) och lagringmediats storlek. I och med att varje foton har en tidsstämpel kan nya funktioner införas i framkallaren, t.ex. kan exponeringstiden (både start och stopp) justeras genom att oönskade fotoner ignoreras.

haha ja jäklar... den var bra...
(men hur skulle man lista ut våglängden utan pixlar?)
 
Några tankar från en sensorutvecklare....

"
Unlike the flash memory problem, continued shrinkage of pixels is having more of a problem with getting enough photons per exposure in the small pixel to achieve an acceptable SNR. If there is a brick wall that needs to be surmounted in imaging, this is it.

My favorite fire escape over the brick wall has to do with photoelectron counting making the sensor really quite digital and making all the resolution issues and noise shaping issues become computational issues rather than device issues."

http://forums.dpreview.com/forums/read.asp?forum=1000&message=31993666
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar