Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Äntligen är megapixelracet över!!!

Produkter
(logga in för att koppla)

elbe

Avslutat medlemskap
Nu börjar "jots-racet" ;-)

"And just to put this perspective, my feeling is that eventually we will have a very large number (10^9) very tiny pixels (that I call jots) each of which is sensitive to a single photon. The array needs to be scanned at very high frame rates (e.g. 10k frames/sec) and the binary image of each frame read out and stored. After that all kinds of fun tricks can be done digitally to create an image at desired resolution, ISO and dynamic range."

http://forums.dpreview.com/forums/read.asp?forum=1000&message=33111972
 
Jo, och verkligheten verkar redan knacka på...

Med tanke på att det är en av de absoluta topparna inom sensorteknologi jag citerar ovan så är nog "eventuellt" nära i tiden, närmare än vi kanske anar!

Gigajots... Det är nog bara att börja vänja sej!
Vad sägs om att min kamera har 5 Gjots...med valbar upplösning, ISO och DR, efteråt... :))
 
Ska bli intressant att se hur många fantasiljoner instruktioner per sekund processorerna som ska hantera detta behöver klara av.
Eller om någon kommer på något annat, som gör samma sak.

Plutts?
 
Nu börjar "jots-racet" ;-)

"And just to put this perspective, my feeling is that eventually we will have a very large number (10^9) very tiny pixels (that I call jots) each of which is sensitive to a single photon. The array needs to be scanned at very high frame rates (e.g. 10k frames/sec) and the binary image of each frame read out and stored. After that all kinds of fun tricks can be done digitally to create an image at desired resolution, ISO and dynamic range."

http://forums.dpreview.com/forums/read.asp?forum=1000&message=33111972

ok om jag har forstatt detta ratt sa kommer EN av dessa avlasningar att behova 119mb internminne i kameran(en bit per pixel eftersom de bara fangar en foton, ganger 10^9 (antar att det funkar som en vanlig kamera dar den bara plockar en farg per pixel))

sedan behovs ett minne som du adderar denna informationen till...

detta betyder att om du tar en bild pa 1/10000s sa blir den helt svart/vit (inte graskala). (savida man inte skalar ner/samplar om bilden.

vill du ha 8bitar per kanal sa maste du isf lata kameran exponera i 1/40s och kontinuerligt addera det sensorn fangar till minnet
(kraver 1gb internminne)
med 8 bitar far du val i praktiken nanstans runt 8-9 exponeringssteg i dynamic range

for 16bitar maste du exponera bilden i 6 sekunder
(kraver 2gb internminne)

om jag har raknat ratt sa later det inte som nagon magisk losning pa alla vara fotoproblem.
 
ok om jag har forstatt detta ratt sa kommer EN av dessa avlasningar att behova 119mb internminne i kameran(en bit per pixel eftersom de bara fangar en foton, ganger 10^9 (antar att det funkar som en vanlig kamera dar den bara plockar en farg per pixel))

sedan behovs ett minne som du adderar denna informationen till...

detta betyder att om du tar en bild pa 1/10000s sa blir den helt svart/vit (inte graskala). (savida man inte skalar ner/samplar om bilden.

vill du ha 8bitar per kanal sa maste du isf lata kameran exponera i 1/40s och kontinuerligt addera det sensorn fangar till minnet
(kraver 1gb internminne)
med 8 bitar far du val i praktiken nanstans runt 8-9 exponeringssteg i dynamic range

for 16bitar maste du exponera bilden i 6 sekunder
(kraver 2gb internminne)

om jag har raknat ratt sa later det inte som nagon magisk losning pa alla vara fotoproblem.

fast det leder väl till en bild på 10^9 pixlar och det tror jag väl inte var meningen...
tror mer det var menat att kameran i mjukvaran klumpar ihop typ 100 enfoton-pixlar till en "riktig" pixel, och mha mjukvara så kan man variera upplösning och ISO m.m. beroende på hur man binder ihop pixlarna...

vad blir teoretiskt färgdjupet om du binder ihop 100 pixlar och varje pixel har 4 bit data (16 scanningar = 1/600s exponering)? (nu är jag ute på djupt vatten vad gäller beräkningarna men wtf, man är väl här för att lära sig lite nytt)
 
Senast ändrad:
ok om jag har forstatt detta ratt...

Det har du inte. Hur skulle t.ex. en sådan "jot"/pixel kunna fånga "en färg per pixel" när fotoner inte har någon färg? Det handlar ju i princip om att spela in position och tidpunkt för ett antal "fotonträffar" på sensorn, och sedan i efterhand nyttja all den informationen till att skapa bilden i efterbehandlingen.
 
Det har du inte. Hur skulle t.ex. en sådan "jot"/pixel kunna fånga "en färg per pixel" när fotoner inte har någon färg? Det handlar ju i princip om att spela in position och tidpunkt för ett antal "fotonträffar" på sensorn, och sedan i efterhand nyttja all den informationen till att skapa bilden i efterbehandlingen.

denna googletraffen sager att du har fel (forsta svaret pa fragan)
http://www.physicsforums.com/showthread.php?t=55880
 
denna googletraffen sager att du har fel (forsta svaret pa fragan)
http://www.physicsforums.com/showthread.php?t=55880

Nej, svaret är "fotonens frekvens definerar dess färg". Fotonen i sig har ingen färg. Grejen är ju att det INTE handlar om pixlar bakom ett Bayer-filter som i de sensorer vi har idag, utan om ett helt nytt sätt att mäta var och när fotonerna träffar, samt deras frekvens eller energi. Ditt räkneexempel är altså helt uppåt väggarna fel.
 
denna googletraffen sager att du har fel (forsta svaret pa fragan)
http://www.physicsforums.com/showthread.php?t=55880

Om nu en foton innehåller färginformation på nåt vis kan man då se dessa "jot" som digitala räknare som läses av med en frekvens av 10000ggr/s.?
1/1000s skulle då ge 10 avläsningar med 10 fotoner vid mättad färg. 0 fotoner = svart. Blir då dr linjärt och 10 steg? Totalt brusfritt torde det bli i varje fall...

Men om man tänker sej en "jot" som ett väldigt kort rör, 1 mm, som fotonerna passerar genom, hur många fotoner hinner då passera genom "joten", identifieras och räknas per avläsning vid ljusets hastighet?
 
"jots" är en spekulation om en möjlig framtida ytterst liten "pixel" som fångar en enstaka foton. "Giga" är ett SI-prefix som betyder 10^9 (miljard).
 
Den här Eric Fossum sitter med all säkerhet och jobbar med någon typ av "jot-sensor" så jag tror inte han lägger ut "hela sanningen" på nätet men jag tror att det kan finnas ledtrådar.

Små pixlar som bara fångar en foton har han pratat om tidigare och nu kallar han dom "jots", i giga-mängder. Han har oxå pratat om att "going vertical" kan vara en framkommlig väg samt även att räkna fotoner för att få en ren digital sensor.

"Going vertical" tycker jag passa bra på ett rör (jot) som bara en foton kan passera genom åt gången och räknas för att sedan omvandlas till elektroner och förstöras.

10k avläsningar per sekund, behövs de? Varför inte bara låta fotonerna flöda genom "joten" och räknas under exponeringstiden?
 
10k avläsningar per sekund, behövs de? Varför inte bara låta fotonerna flöda genom "joten" och räknas under exponeringstiden?

En ren gissning är att där inte finns någon räknare i egentlig mening utan bara ”någonting” i ”joten” som ändras när den första fotonen registreras, flera fotoner har därför ingen effekt. Detta kan tyckas som ett enormt slöseri, men det är i själva verket en stor fördel att bli av med ett onödigt överskott fotoner i högdagrarna (i lågdagrarna lär det ju inte hända så ofta att två fotoner träffar samma lilla ”jot” om vi exponerar rätt :). Effekten av detta blir i själva verket att sensorn får ett olinjärt beteende på samma sätt och av samma orsak som vanlig film.

Jag misstänker alltså att dessa ”jotar” har mycket mer med filmkristaller att göra än med pixlar och i jämförelse med filmkristaller blir plötsligt inte prefixet Giga så imponerande och därför behövs många avläsningar för att få en tillräckligt god statistik.

Observera att detta naturligtvis bara är ren spekulation, men det ligger ju i trådens natur:)
 
En foton kan inte ha en färg, eftersom den inte existerar... :)

Men eftersom frekvensen på vågrörelsen som kan kan modelleras som OM det fanns en "foton" bestämmer hur djupt in i en silikonkristallstruktur vågen tränger innan den översätts till en laddning kan man färgbestämma den på det sättet. Principen som Foveon använder, alltså - inget bayerfilter, utan laddningsuppsamling på tre olika djup i silikonplattan (ger lite låg färgkänslighet, men med tillräckligt hög upplösning så....)

100 pixlar sammanslagna ger olika felresultat beroende på ifall du väljer "bin" eller "average"... man kan med 4 bitar (16nivåer) per enskild insamlingspunkt isf uppnå allt mellan:
[avg] = [4 bitar, med enorm värdessäkerhet] eller:
[bin] = [log10(100x16)/log10(2) = ca 10.6 bitar]

Om inte lässäkerheten per "jot" är ENORM - vi talar om att en enskild elektron per jot i felmarginal ger förödande konsekvenser för systemet - så faller systemet på eget grepp. Att hålla dessa utläsningshastigheter ligger en bra bit bortom något som en en finns på planerings/prototypstadiet - vi kan inte ens modellera hur systemet skulle byggas. Den enda vettiga hårdvarulösningen jag sett på denna modell än så länge är en utbyggd flerlagerskonstruktion, med avläsningslagret överst - mot objektivet - och sedan en progressiv ökning av bithastighet/s och minskning av fysisk upplösning på väg ner genom lagren. Lager två > 4 jots per kommunikationskanal, fyrdubbla hastigheten, lager tre > [4x4]=16 jots per kommunikationskanal, sextondubbla hastigheten osv... Detta kräver antingen lagermontering med pasning mellan lagren på enskild molekylnivå, eller att man "skulpterar" chippet i multipla svep med påläggning av material mellan varje svep.

Man kan inte heller separera sensorn från styrelektroniken - allt måste finnas i ett paket - det finns inga kommunikationssätt som är tillräckligt snabba för att kunna överföra dessa datamängder...

Vi kan just nu säga att sensortillverkningen ligger ca sju-nio år efter i produktionsteknik. De första sensorerna från 180nm-steppers har precis börjat komma ut på marknaden - minns någon "Pentium III"? eller PowerMac G4? Gör ni inte det så fråga en äldre släkting. De innehöll mycket mer avancerad tillverkningsteknik än vad den absolut modernaste sensorn (som har större än 9mm diagonal) på marknaden idag gör.
Ingen är ens i närheten av att kunna tillverka något sånt här, ens i spjutspetsprodukter. Och när DET väl har hänt (om tio år?) så kommer det antagligen dröja 5-10 år till innan kamerasensorer större än 5mm använder dem.

Det jag dock kan säga med ganska stor säkerhet är att Bayer-filtret MÅSTE bort. Vi kommer inte speciellt mycket längre med denna kluns till filterplatta ovanpå fotodioderna... Redan de upplösningar vi har idag ger oss pixlar som är "tunnelformade" - de är betydligt högre än vad de är breda. Och detta redan INNAN vi kommit fram til den ljusavkännande silikonplattan.
 
Och underverk ska vi inte vänta oss innan någon har fått Nobel-pris för att han/hon bevisat att relativitetsteorin och kvantmekaniken båda har helt åt skogen fel.

Sensorerna vi använder idag har en absolut känslighet (inklusive bayerfiltret) på i genomsnitt 12%. Utan bayer-filter - ca 35-40%. BSI med Bayer-filter - ca 35%...

Om vi säger att vi skulle kunna höja effektiviteten på omvandlingen våg-laddning till exakt 100% så skulle vi alltså kunna tillverka en kamera som ser ut dagens kameror gör på ISO3200 - på ISO25600. ISO51200 skulle alltså vara klart användbart i en 36x24mm sensor... Men sedan säger moder natur stopp - det finns helt enkelt ingen säkerhet i avkänningen av energinivåer lägre än detta. vi är redan idag nere på att 10 enskilda kvanta kan omvandlas till en användbar bilddetalj, klart skiljbar från "svart"... (i småsensorer, kompaktkameror)
 
En ren gissning är att där inte finns någon räknare i egentlig mening utan bara ”någonting” i ”joten” som ändras när den första fotonen registreras, flera fotoner har därför ingen effekt. Detta kan tyckas som ett enormt slöseri, men det är i själva verket en stor fördel att bli av med ett onödigt överskott fotoner i högdagrarna (i lågdagrarna lär det ju inte hända så ofta att två fotoner träffar samma lilla ”jot” om vi exponerar rätt :). Effekten av detta blir i själva verket att sensorn får ett olinjärt beteende på samma sätt och av samma orsak som vanlig film.

Jag misstänker alltså att dessa ”jotar” har mycket mer med filmkristaller att göra än med pixlar och i jämförelse med filmkristaller blir plötsligt inte prefixet Giga så imponerande och därför behövs många avläsningar för att få en tillräckligt god statistik.

Observera att detta naturligtvis bara är ren spekulation, men det ligger ju i trådens natur:)

Ja det här verkar ju logiskt till skillnad från mina gissningar :)

10k avläsningar per sekund tyckte jag först verkade begränsande på slutartiderna men de är väl som vanligt mängden ljus som träffar så 5 avläsningar på 1/2000 s (bra ljusförhållanden) tillsammans med några kilojots kan kanske ge lika säker statisitk för en bild som vid 1/5 s (dåliga ljusförhållanden) och 2000 avläsningar.

Men dag styr vi ju ljusmängden/exponeringen med iso-inställningen och med "jotar" ska vi kunna välja iso i efterhand. Det borde ju då innebära en fast exponeringstid om t.ex 1/5 s och 2000 "exponeringar" att ta hand om, antingen till en bild med väldigt hög upplösning eller en bildserie om 10 bilder med lite lägre upplösning, nästan oavsett om det sedan är bra ljusförhållanden eller inte, mängden "jotar". Verkar ju helknasigt tycker jag...eller så fattar jag inte ett jota :)
 
Och underverk ska vi inte vänta oss innan någon har fått Nobel-pris för att han/hon bevisat att relativitetsteorin och kvantmekaniken båda har helt åt skogen fel.

Sensorerna vi använder idag har en absolut känslighet (inklusive bayerfiltret) på i genomsnitt 12%. Utan bayer-filter - ca 35-40%. BSI med Bayer-filter - ca 35%...

.....

Glömmer du inte att "jotar" handlar om digital teknik till skillnad från dagens analoga sensorer?...
 
Det kvittar faktiskt fullständigt om det är en "digital" teknik eller en analogt mätandde teknik - effektivitetsbegränsningen ligger i hur låg ljusnivå (effekt) som kan mätas och översättas till EN elektron. Det är en energi-omvandling. Högre effektivitet än 100% innebär alltså en Perpeteum Mobile... :)

-Och svaret på jordens energiproduktion. Mer energi ut än vad vi skickar in? Då behöver vi bara en tillräckligt effektiv lampa så kan du bygga ett självgående kraftverk (cell matar lampa med ström, lampa matar cell med ljus) som du kan stänga in i en bunker - den kommer bara fortsätta spotta ur sig "överskottsenergi"... :)
 
Fast å andra sidan borde ju sensorn kunna fungera som en transistor där den fotonkänsliga delen är bas. Har jag tänkt rätt så kan teoretiskt en foton utlösa hur många elektroner man vill, utan att ha en verkningsgrad över 100%.
 
ANNONS
Köp en spegellös systemkamera från Canon och få ett 50mm objektiv på köpet hos Götaplatsens Foto.