Annons

Ny Smart Sensor?

Produkter
(logga in för att koppla)

AlexNerö

Aktiv medlem
Håller detta resonemang?

Idag får sensorn ljus genom justering av bländare och slutartid.
En bild mot solen blir antingen svart i en del av fotot eller så blir det utfrätt i högdagrarna beroende på vart ljusmätningen sätts.

Varför kan man då inte med dagens teknik styra sensorn till att bli "smart" tänk om sensorn känt av att mitt i solen så kommer det bli för ljust och därmed dra ner känsligheten digitialt på desssa pixlar och låta hela bilden bli olika exponerad på sensorn och därmed få ett smartläge/amatörläge... men borde det inte gå och borde det inte finnas något bra eller är jag helt ute och cyklar?
 
Nja, det är bla skilnaden i luminans (ljushet) som ger bilden detaljer. Om vi skulle sätta på ett filter som har till uppgift att minska skillnaderna, skulle vi tappa detaljerna eller åtminstome minska kontrasten dramatiskt.

För att se hur en sån ser ut kan du
1. öppna valfri bild i PS.
2. konvertera till LAB-color
3. Välj att visa kanaler
4. Gör L-kanalen neutral grå dvs måla med 50% grå över hela L-kanalen.
Nu har du skapat en bild utan luminans information och där allt enbart styrs av färg.

Jag antar att den är extremkontrastfattig.

Det som man brukar använda är tonade ND-filter för att t ex komma tillrätta med problem som att himlen blir för ljus och marken för mörk.

Man skulle iofs kunna tänka sig mer dynamiska ND-filter med lcd-teknik eller liknande och där man bättre skulle kunna forma och ändra toning. Men jag tror inte att vi har teknik att göra såna filter idag utan att förlora för mycket i bildkvalité. Vilket skulle kräva nån form av interface för att styra fitret och antagligen en dator för handhavandet. Och då är vi tillbaka till något som liknar att använda lager och masker i bildbehandlingsprogram.

Kanske nångång i framtiden man skulle kunna göra "filter" med en beläggning som automatiskt blir mörkare i ljus och som reagerar tillräckligt snabbt. Ungefär som glasögonglas som mörknar i solljus fast snabbare, färgneutrala och pankromatiska dvs reagerar lika på alla förger.. Då skulle man kunna göra kontrast minskningsfilter kanske tom olika "hårdhet". men såna filter skulle man behöva sticka in mycket nära sensorn. troligen mellan Chippet och de filter/linser som idag sitter på den.
 
Håller detta resonemang?

Idag får sensorn ljus genom justering av bländare och slutartid.
En bild mot solen blir antingen svart i en del av fotot eller så blir det utfrätt i högdagrarna beroende på vart ljusmätningen sätts.

Varför kan man då inte med dagens teknik styra sensorn till att bli "smart" tänk om sensorn känt av att mitt i solen så kommer det bli för ljust och därmed dra ner känsligheten digitialt på desssa pixlar och låta hela bilden bli olika exponerad på sensorn och därmed få ett smartläge/amatörläge... men borde det inte gå och borde det inte finnas något bra eller är jag helt ute och cyklar?

Jag är inte någon expert på sensortekniken men Fuji använder ju i deras kamera Fujifilm FinePix S5 Pro en sensor med dubbla fotoceller (pixlar) "Super CCD SRII". En stor och en liten som jabbar i par. När den stora cellen är mättad med ljus och tillhörande pixel skulle bli utfrätad så fortsätter den mindre cellen att ta emot ljuset. Jag tror att detta är idag det som kommer närmast till dina funderingar och som fungerar ipraktiken. Jag hoppas att Fujifilm kommer snart med en ny kameramodell med den här tekniken och FFsensor.
//Stanislav Snäll
 
Nej man behöver inte några större / mindre pixlar.

Man kan skapa detta med dagens teknik.
låt säga att du för varje pixel läger till en tidskonstant. Alltså HUR lång tid det tog att bottna pixeln.

Läser man också av pixeln strax innan fullt så har du informationen också.
Att sedan kameran idag skulle få en storlek som liknar en hel PC, eller mer, det är ju ett annat problem.
 
Det finns idag inget sätt att läsa ut när en fotosensorpixel mättas i realtid, denna typ av applikation är helt enkelt inte kompatibelt med hur en fotodiod med vidhörande laddningsbrunn och laddningsavläsningselektronik måste konstrueras...
Sedan har vi problemet med att de enskilda pixlarna måste läsas av i raka led för att sensorn ska gå att tillverka. Varje pixelkolumn i y-led hänger alltså ihop som ett snöre - vad händer när en pixel i toppen av kolumnen mättas samtidigt som en pixel i botten av raden? Hur ska man veta vilken Y-position pixeln hade om man inte kan bestämma den? Hela sensortekniken i en kamera hänger på att systemet som krävs för att läsa de enskilda pixlarna var för sig fungerar - man stegar sig upp igenom kolumnerna genom att "släppa" en Y-ledsposition i taget, och t.ex Sony/Nikon använder en A/D per kolumn för att lösa problemet med X-positionering. (6000st i en A900/D3x!)

Att mäta tiden fram till mättning är alltså en praktisk omöjlighet - om vi inte hittar på en slags sensor som är fullt 3D i sin utläsning - en analog/digital-omvandlare per pixel alltså! Den kommer bli ungefär 4000x dyrare än D3x/A900-sensorn.
 
Kan man tillverka en sensor med olika förstärkning på pixlarna.
Då skulle man ju kunna Använda 4 sensorer till varje bild pixel och använda typ ND filter för varje pixel för att ta alternativ exponering som sedan kan kombineras mha HDR-teknik.

Tänk 24 MP med pixel binning till 6 Mp. Två sensorer med 2 stegs ND filter, en som vanligt och en med 4 steg.
Förstärkning inställt efter den med 2 stegs ND filter.
En exponering och du har +2, 0 och -2 exponering i ett skott.
 
Det skulle gå alldeles utmärkt, om man bara accepterar att bruset dubblas, samt att risken för moiré i ev. mönster på det man fotar mångdubblas så... (moirémönstret skulle inte vara lika kraftigt som fullon/fulloff-filter kan ge, men iaf.
 
Teknik Teknik

Ok,,, Tekniken verkar finnas om än i sin linda.
Om det 100% hade gått hade det då varit det man ville ha?
om så är fallet kan man ju anta att nästa generations sensorer
kommer ha helt andra förutsättningar än dagens genom plug/play bilder som aldrig kan exponeras fel eller ialla fall där data alltid finns för att justera bilden i efterhand...
 
Jag tog det som skämtsamt menat, så det finns ingen anledning att försvara... :)

Iden med något som liknar fotokromatisering (glas som mörknar efthand som det belyses) är nog det bästa hittills. Det skulle bara hjälpa om man anpassar glasets dämpningskurva till bas-ISO, sen skulle man få mindre och mindre hjälp ju längre upp i förstärkning man går. Men visst hade det varit trevligt att slippa utbrända moln/lampor/högdagrar osv.... För hög dynamik drabbas man ju mest av i situationer där det finns massvis av ljus att tillgå. Problemet är att hitta någon kemi som är tillräckligt snabb bara!
Problemet med ljusspridning (glaset kommer ju mörkna även lite vid sidan av punkten som belyses hårdast) kan man nog ganska lätt lösa i mjukvara.
 
Bra att du sätter Joakim på plats! Han ska inte komma här och tro att hans informationsspäckade inlägg och hans trevliga och hjälpsamma ton är något att ha!
Det är varken skrivet för att sätta ngn på plats eller att vara spydig eller skämtsam.
Bara ett torrt kallt konstaterande.
Det går, men det finns ingen konsument som vill ha det eller betala för det heller för den delen.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar