ANNONS
Annons

Sensorstorlek och DX

Produkter
(logga in för att koppla)
mengan skrev:
Processen för tillverkning av integrerade kretsar gör det alltså mer effektivt (lönsamt) att packa transistorerna tätare på mindre area än att göra kretsarna större. Objektivets upplösningsförmåga sätter också en gräns för när det inte längre är effektivt att packa fler pixlar på varje kvadratmillimeter. Utgå ifrån att industrin snart kommer till den optimala lösningen ur ett effektivitets och lönsamhetsperspektiv. Möjligen är den lösningen inte att tillverka sensorer som mäter 24*36 mm.

/engan

Det här är också Ken Rockwells linje. Han nämner dessutom att större sensorer får problem med synkroniseringen. Som jag förstått saken är ljusets fart inte fort nog i dessa sammanhang och vi får då problem med stora ytor (långa kommunikationsvägar).
 
Arleklint skrev:
Det är ballt för mig att Nikon jobbar på att göra bra bilder i kameror som inte kostar så mycket som kameror med större sensorer kostar.
Bra bilder är det bara fotografen som kan ta.

Kameror med mindre sensorer erbjuder samtliga tillverkare, frånsett kodak.
 
Arleklint skrev:
Det är ballt för mig att Nikon jobbar på att göra bra bilder i kameror som inte kostar så mycket som kameror med större sensorer kostar.

Genom att tala om att det är 1.5x som gäller och inget annat, tar dom bort osäkerhetsfaktorn för dom som tvekar till att investera i 1.5x programmet för att dom är "rädda" att det kommer en fullformatare om ett år.

Givetvis under förutsättning att man litar på Nikons marknadföringsavdelning.
 
jonvi skrev:
Det här är också Ken Rockwells linje. Han nämner dessutom att större sensorer får problem med synkroniseringen. Som jag förstått saken är ljusets fart inte fort nog i dessa sammanhang och vi får då problem med stora ytor (långa kommunikationsvägar).

Vad är det som behöver synkroniseras? Pixlarna behöver väl knappast kommunicera med varandra?

PD
 
iSolen.se skrev:
Hur kommer det sig då att sensorerna ökar i storlek samtidigt som priserna sjunker?

Anledningen till att en större sensor är dyrare är som sagt dels den faktiska ändringen av ytan (prop. ökning av priset) men mest att fler sensorer måste kastas då felaktigheterna som slumpas ut över wafern drabbar större antal färdiga sensorer (exponetiell ökning).

Att priserna sjunker på stora sensor är alltså produktionstekniska, processen blir bättre och färre måste kastas (detta ger själfallet även billigare små kretsar).

Sen tror jag att den elektronik som omgärdar den stora sensorn (som pågrund av storleken på sensorn måste vara snabbare/dyrare) snabbt sjunker i pris, detta ger ett lägre totalpris på kameran även om själva sensorn inte blivit markant mycket billigare. Hur stor del av produktionskostnaden utgör sensorn?
 
Nä. Men efterom pixlarna (av uppenbara skäl) inte alla kan ligga på exakt samma ställe och eftersom elektronernas utbredningshastighet i kisel är konstant tar det olika lång tid för dom att ta sig ut ur sensorn. Är sensorn stor blir det stor skillnad i fördröjning när man läser av innehållet i pixlarna. Man får alltså alltså, i en stor sensor, problem med att synkronisera avläsningen av pixlarna för att de inte skall komma ut huller om buller, eller för att avläsningen inte skall bli för långsam.
 
mengan skrev:
Man får alltså alltså, i en stor sensor, problem med att synkronisera avläsningen av pixlarna för att de inte skall komma ut huller om buller, eller för att avläsningen inte skall bli för långsam.

Varför måste man läsa pixlarna synkroniserat?
Det räcker väl med att skifta ut dem radvis (eller något liknande)?

PD
 
Ja. Men att läsa av dem radvis är också ett sätt att synkronisera avläsningen. Problemet är att i en stor krets är det stora avstånd mellan, exempelvis den första pixeln i raden och den sista. För att uppnå tillräcklig korta avläsningstider måste man använda mer komplexa metoder. Komplexare konstruktioner kräver fler transistorer. Fler transistorer innebär att man använder större yta av kretsen för synkronisering och liknande istället för till pixlar. Vilket innebär, totalt sett, en större krets per pixel. Som i sin tur innebär lägre yield och högre kostnad.
 
Senast ändrad:
Ang, sensor, synkning, etc
På de punkterna skiljer ju sig CMOS och CCD'er åt väsentligt. Och utläsningskanalerna tar inte så fruktansvärt mycket mer plats, det är mycket därför mikrolinserna finns.

Att det skulle vara synkningsproblem är mer eller mindre skitsnack rent ut sagt. Om du tänker att du ska klara att läsa ur max 12 bilder i sekunden ur sensorn så är det inte hastigheten i synkningen som är det stora problemet utan datamängden från antalet pixlar över ett litet antal smala linor. Och visst, drar du allting genom samma lina och ska läsa ur en 16MP sensor 12 gånger i sekunden genom en och samma punkt, då lär det blir lite för hög hastighet, men dessa läses ju ur radvis och inte sekvenciellt pixelvis.

Canon kör ju med fyrdubbla utläsningskanaler och dubbla processorer, och dessa kan bara ta hand om X-mängd data. Dessutom är strömåtgången i detta ögonblick också rätt hög. Det är inte för inte som D2x har valet mellan hög upplösning/låg hastighet och låg upplösning/hög hastighet. Nikon har samma problem. Det är fortfarande en batteridriven lösning som ska kunna driva hela klabbet.

Att synka en signal i olika steg är ju en teknik som är lastgammal. Därav den gemensamma klockan.

Ang: Nyquist
Det är lite till och från, du kan inte behandla den digitala avläsningen som att du ska sampla en perfekt ursprungssignal då den ingående signalen är analog. Hade den ingående signalen var digital hade det blivit annorlunda. Till viss det går det att applicera, framförallt vid scanning av olika saker där ursprungskällan är korn(kan liknas vid pixlar) eller ofta ett raster. Men i de flesta fall är verkligenheten inte rastrerad.

Här är en länk där dom beror ämnet ifråga.
http://www.luminous-landscape.com/reviews/merklinger.shtml
 
Senast ändrad:
Damocles skrev:
Ang, sensor, synkning, etc

Att det skulle vara synkningsproblem är mer eller mindre skitsnack rent ut sagt.


Ang: Nyquist
Det är lite till och från, du kan inte behandla den digitala avläsningen som att du ska sampla en perfekt ursprungssignal då den ingående signalen är analog. Hade den ingående signalen var digital hade det blivit annorlunda. Till viss det går det att applicera, framförallt vid scanning av olika saker där ursprungskällan är korn(kan liknas vid pixlar) eller ofta ett raster. Men i de flesta fall är verkligenheten inte rastrerad.

Här är en länk där dom beror ämnet ifråga.
http://www.luminous-landscape.com/reviews/merklinger.shtml

Tror inte heller synkningen är något grundläggande problem, det är bara ett tekniskt problem som kommer lösas efter hand. I takt med att elektroniken blir billigare är det bara att lägga till fler utläsningskanaler om det skulle behövas.

Nykvist: här hängde jag inte med alls. Nykvistteoremet handlar ju om sampling av analoga signler. Vad menar du med ingående digital signal?

Det Nykvist säger är att man faktiskt kan återskapa en analog signal perfekt om den är samplad på dubbla frekvensen av den högsta frekvensen i den analoga signalen. Det är egentligen, matematiskt sett, ganska fantastiskt: ur ett begränsat antal diskreta mätpunkter kan man perfekt återskapa en kontinuerlig datamängd. I praktiken fungerar det förstås inte så perfekt eftersom man alltid har brus och fel i samplingen. Digitala oscilloskop t ex brukar sampla på 5-10 ggr högre frekvens än den maximala signalfrekvensen.

Johannes
 
Strax under Nyquistgränsen är bildkvaliteten mycket, mycket dålig, men innehåller trots allt fortfarande svaga spår av vettig information (som kan användas t ex av militär för att i bästa fall utröna om det är en höskrinda eller en fientlig stridsvagn man fotograferat, någon njutbar återgivning är det däremot absolut inte tal om).

För att få kamerans totala MTF-värde ska man multiplicera objektivets och sensorns MTF-värden med varandra. Det är alltså av största vikt att sensorns MTF-kurva ligger så högt som möjligt, och eftersom kurvan sjunker katastrofalt i närheten av Nyquistgränsen (och dessutom blir kraftigt instabil) så finns det mycket att vinna på översampling.

Kraftigt förenklat så varierar sensorns MTF-värde mellan 0 och 0,64 vid Nyquistgränsen, genomsnittet är 0,4, men det allvarliga är denna våldsamma fluktuation. Vid halva Nyquistgränsen, som ju motsvarar en fyrdubbling av pixelantalet, har MTF-värdena ökat till mellan 0,64 och 0,90 (0,81 i genomsnitt). Ytterligare en fyrdubbling ger 0,90 – 0,975 (0,95 i genomsnitt). Som synes blir MTF-värdena både högre och stabilare ju fler pixlar vi har till förfogande.

(I praktiken blir värdena betydligt sämre än ovanstående, dels för att ovanstående gäller för äkta trefärgspixlar och dels p g a AA-filtren.)

Orsaken till att MTF-värden varierar så kraftigt kan nog enklast beskrivas om vi tänker oss att vi fotograferar av stjärnhimlen med ett perfekt objektiv (som är så skarpt att varje stjärnas airyfläck ryms inom en pixel). Ljusfläcken från vissa stjärnor kommer då att centreras mitt i en pixel och därför återges som EN ljus pixel. Ljuset från andra stjärnor kommer att ha maximal otur och istället hamna mitt i skarven mellan fyra pixlar (som i bästa fall bara får en fjärdedel av ljuset var) och kommer därför att se mycket suddigare ut.
 
Nej, objektivets skärpa i form av dess MTF-värden har man (åtminstone i teorin) alltid nytta av eftersom objektivets och sensorns MTF-värden ska multipliceras med varandra. Jag vill för övrigt varna för att tänka i maxupplösningstermer i fotosammanhang, vid så höga upplösningar kommer alltid MTF-värdet att vara lågt och bildkvaliteten därför dålig (det ligger i maxupplösningsbegreppets natur att MTF-värdet då är så extremt lågt att ögat bara nätt och jämt kan urskilja något). Vad vi bör eftersträva är istället att matcha objektiv och sensor så att den sammanlagda MTF-kurvan (över hela frekvensskalan, inte minst de viktiga LÅGA frekvenserna) ligger så högt som möjligt. I praktiken blir ju detta en avvägning mellan många andra faktorer också, inte minst ekonomiska, ibland får man bättre total bildkvalitet genom att lägga slantarna på dyrare optik, ibland på dyrare sensorer. (Och eftersom sensorerna för närvarande förbättras mycket snabbare än objektiven så kommer denna avvägning att förändras med tiden)

Sedan kompliceras hela saken ytterligare av att sensorernas och objektivens respektive MTF-kurvor har olika form. Om t ex sensor och objektiv vid en viss frekvens har samma MTF-värde, t ex 0,8, så kommer sensorn vid halva denna frekvens att ha ökat sitt MTF-värde till 0,95, medan objektivet i ett normalfall bara ökat till runt 0,9. Ju lägre frekvenser vi tittar på desto större andel av det totala MTF-värdet kommer att bero på objektivet.
 
Jag tror att jag håller på att lära mig något här. Jag är som sagt varken optiker, halvledarkonstruktör eller fotograf. Jag är bara nyfiken och hysteriskt off-topic. Men, jag ångar på:

Är det inte möjligen så att det figurerar två stycket "nyqvistgränser" i resonemanget? Sensorns upplösning och objektivets maximala upplösningsförmåga. Alltså den minsta detalj objektivet kan återge, möjligen mätt i linjer per millimeter.

Om jag inte har fattat helt fel så måste sensorns upplösningsförmåga vara dubbelt så stor som objektivets. Annars förlorar vi information. Är den större så får vi bara mer redundant information som vi ändå inte kan använda. Givet att vi har en ideal sensor då.

Jag funderar på Lennart Nilssons exempel med stjärnan. Antag att vi har ett objektiv med en viss upplösningsförmåga (exempelvis 100 lpm). Vi matchar detta objektiv med en sensor som har dubbelt så hög upplösningsförmåga som ojektivet (alltså 200 pixlar per millimeter eller 40000 pixlar per kvadratmillimeter)

Ingen detalj (exempelvis stjärna) som avbildas av objektivet kommer ju att kunna vara mindre än en hundradels millimeter gånger en hundradels millimeter. Objektivets kapacitet ger den gränsen.

Men storleken på en pixel är ju en fjärdedel av det. Innebär detta inte då att stjärnan ALDRIG avbildas på en enda pixel? Att stjärnans avbild i regel alltid hamnar på minst fyra pixel?

Att det kan bli knepigt om objektivet är perfekt är ju inte så konstigt. Då hamnar ju nyqvistgränsen där borta i oändligheten. Sådana sensorer blir nog jättedyra.

Men jag är fortfarande nyfiken på resonemanget om sensorns återgivningsförmåga nära sensorns egen nyqvistfrekvens. Att sensorn inte är ideal är ju självklart. På vilket sätt påverkar det?
 
Senast ändrad:
Ja. Eller alltså, nej. Jag ansluter mig till samma uppfattning. Och jag fortsätter att vara näst intill bisarrt off-topic.

I dagsläget är synkroniseringen sannolikt inget problem. Våra kameror fungerar ju. Och det är sannolikt så att synkroniseringen är ett problem som kan lösas även för framtida sensorer.

Om man kunde använda samma teknik som till exempel i VRAM-kretsar kunde man uppnå hiskeliga avläsningshastigheter. Jag har inte den blekaste aning om hastigheterna, men gissar på hundratals Mbit/s.

Nu är ju VRAM-kretsarna små. Och om jag inte är helt ute och cyklar så är den ynkliga storleken, eller den höga transistordensiteten en av anledningarna till att de är snabba. Miniatyriseringen hjälper till att lösa eventuella timing- eller synkroniseringsproblem. Men av självklara skäl kan man inte göra en sensor hur liten som helst.

Jag, som alltså bara spekulerar, tror att man får det besvärligt om man försöker bygga jättestora, jättesnabba sensorer med tillräckligt många pixlar. Jag gissar att sådana produkter kommer att ha lönsamhetsproblem.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar