Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Sensorstorlek

Produkter
(logga in för att koppla)
Jag tipsar om den här länken i en annan tråd men den kanske passar in även i denna diskussion. Ming Thein spekulerar lite över framtidens sensorer.

https://blog.mingthein.com/2017/02/02/convergence-equivalence-and-the-future-of-sensors/

Jag tycker han sammanfattar situationen mycket bra.

Ett litet tillägg, jag håller med om hans resonemang om att vi troligen gradvis kommer att se allt mer uniform pixelteknik genom hela kedjan av sensorstorlekar. Det behöver inte handla om exakt samma pixelgeormteri, men väldigt likartad pixelprestanda genom hela kedjan: entum, Four Thirds, APS-C, småbild och mellanformat.

Men som Ming påpekar, det finns vissa saker som alltid kommer vara lite svårare med större sensorer, han tar upp stabilisering som ett exempel, men jag tror även att små sensorer kommer fortsätta ha en fördel i utläsningshastighet, det är en universell regel att ett av de enklaste sätten att öka hastigheten i en integrerad krets är att krympa den. Ju mindre du bygger en processor, ju snabbare kan du klocka den (för samma effektförbrukning och därmed värmenivå). Samma princip gäller sensorer, vi kommer nog generellt alltid ha lite gradvis avtagande utläsningshastighet ju större ytan är.

Men tänk ungefär samma pixelteknik som vi idag har i entumssensorer genom hela kedjan ...
Entum - 20 megapixel
Four Thirds - 35 megapixel
APS-C - 65 megapixel
Småbild - 145 megapixel
Mellanformat (á la Hasselblad X1D, Fuji GFX) - 185 megapixel

Stoora filer :)
 
På Nikons små Ettor som t.ex. V3 och J5 så klarar de av 30 bilder i sekunden med kontinuerlig autofokus och 60 bps med fast fokuspunkt.
Utläsningshastigheten från dessa sensorer är makalöst hög: 60x 18,4 resp 20 megapixel,
Efterföljande elektroniken klarar dock inte av att skriva allt tillräckligt snabbt och bufferten tar slut efter 40 bilder.

Men mängden data som läses ut är imponerande.
 
På Nikons små Ettor som t.ex. V3 och J5 så klarar de av 30 bilder i sekunden med kontinuerlig autofokus och 60 bps med fast fokuspunkt.
Utläsningshastigheten från dessa sensorer är makalöst hög: 60x 18,4 resp 20 megapixel,
Efterföljande elektroniken klarar dock inte av att skriva allt tillräckligt snabbt och bufferten tar slut efter 40 bilder.

Men mängden data som läses ut är imponerande.

Faktum är att redan J1 och V1 som dök upp 2011 (snart sex år sedan) hade de hastigheterna (fast med 10 megapixel, inte 20), och det är först nu med Olympus E-M1 Mark II vi ser likartade hastigheter i en större sensor - 60 bilder/sek i topphastighet med fokus låst efter första bilden och 18 bilder/sek med kontinuerlig AF. Med 20 megapixel. I gengäld har E-M1 Mark II djupare buffert än Nikons 1-kameror vilket gör topphastigheterna mer användbara. Nu är väl buffert mer av en kostnadsfråga än att det är tekniskt svårt att bygga och E-M1 Mk2 är ju en lite dyrare kamera än Nikons 1-kameror :)

Men, det är nog inte alla långt borta att vi ser hastigheter á la E-M1 Mark II i APS-C-kameror snart. Kanske rent av i småbild. Det pratar ju allt mer ihärdigt om kommande kameror med global slutare, och det bygger ju på väldigt snabb utläsning.
 
Jag tipsar om den här länken i en annan tråd men den kanske passar in även i denna diskussion. Ming Thein spekulerar lite över framtidens sensorer.

https://blog.mingthein.com/2017/02/02/convergence-equivalence-and-the-future-of-sensors/

Jag håller med Martin A om att det är en ganska bra artikel, men jag tror att Thein missar lite när han förutsäger att "in a way, digital will be like film again".

Visst kan man göra analogin mellan olika ISO-inställningar på en digital bildsensor och filmer med olika ISO-känslighet, men det finns andra skillnader mellan filmtyper, t.ex. korngeometri, som är svårare att göra en digital analogi till. Olika sorters färgfilter (Bayer vs. X-trans) är inte något som går att göra en bra analogi av åt andra hållet.

Ju snabbare vi inser att digital fotografering är rejält annorlunda mot filmbaserad fotografering, tekniskt sett, desto bättre. Vi har fortfarande alldeles för mycket bagage från filmtiden när vi diskutera digital fotografering.

(Men min invändning kanske neutraliseras av Theins "in a way"? :)
 
Jag håller med Martin A om att det är en ganska bra artikel, men jag tror att Thein missar lite när han förutsäger att "in a way, digital will be like film again".

Jag tror han mest syftar på det faktum att film ju hade ungefär samma förmåga till detaljupplösning per kvadratmillimeter film oavsett storlek. Och att om vi får en modell där man använder liknande pixelgeometri oavsett sensorstorlek så blir det, lite som på filmtiden, att upplösningen blir ganska direkt proportionell mot sensorstorleken.
 
Faktum är att redan J1 och V1 som dök upp 2011 (snart sex år sedan) hade de hastigheterna (fast med 10 megapixel, inte 20), och det är först nu med Olympus E-M1 Mark II vi ser likartade hastigheter i en större sensor - 60 bilder/sek i topphastighet med fokus låst efter första bilden och 18 bilder/sek med kontinuerlig AF. Med 20 megapixel. I gengäld har E-M1 Mark II djupare buffert än Nikons 1-kameror vilket gör topphastigheterna mer användbara. Nu är väl buffert mer av en kostnadsfråga än att det är tekniskt svårt att bygga och E-M1 Mk2 är ju en lite dyrare kamera än Nikons 1-kameror :)

Men, det är nog inte alla långt borta att vi ser hastigheter á la E-M1 Mark II i APS-C-kameror snart. Kanske rent av i småbild. Det pratar ju allt mer ihärdigt om kommande kameror med global slutare, och det bygger ju på väldigt snabb utläsning.

Intressant att em1 har större buffert. Visste inte det.
Kan man börja plocka ut de här hastigheterna från större sensorer så kommer det att bli spännande.

Minneskorten finns till viss del.
Buffert är som du säger endast avhängigt pengar.
RED tar ut 75bps ur deras 35Mpixel S35 sensor och
100bps ur deras mindre 18MP sensor.
Dock är de data begränsade till 300 MB/s.

Dessutom har red en otrolig dynamik som slår allt.

Nu är det vissserligen skillnad mellan en billig nikon för någon tusenlapp och en red för en halv miljon. Men tekniken finns. :)
 
Jag tror han mest syftar på det faktum att film ju hade ungefär samma förmåga till detaljupplösning per kvadratmillimeter film oavsett storlek. Och att om vi får en modell där man använder liknande pixelgeometri oavsett sensorstorlek så blir det, lite som på filmtiden, att upplösningen blir ganska direkt proportionell mot sensorstorleken.
Jo, det tror jag också är vad han menade, men min invändning med exemplet korngeometri handlar om att det finns olika filmtyper med olika upplösningsförmåga (givet samma ISO-känslighet). Det är alltså inte lika enhetligt som i Theins framtidsvision med samma pixelteknik oavsett sensorstorlek.

Men visst är det lite hårklyveri ...
 
Jag tror han mest syftar på det faktum att film ju hade ungefär samma förmåga till detaljupplösning per kvadratmillimeter film oavsett storlek. Och att om vi får en modell där man använder liknande pixelgeometri oavsett sensorstorlek så blir det, lite som på filmtiden, att upplösningen blir ganska direkt proportionell mot sensorstorleken.

Men kan man inte tänka sig liknande tänk med sensorer som med stora displayer som Sonys senaste teknik där man gör jätteskärmar genom att dela upp en stor yta i mindre.

Med BSI-teknik så kan man väl i princip nu lägga en massa fysiska komponenter på baksidan av en större sensor som skulle kunna bestå av ett antal mindre både fysiskt och logiskt hopkopplade sensorer om man nu ville dra nytta av den principen att mindre elektroniska komponenter ger bättre prestanda och mindre störningsproblem. BSI måste ju ge nya möjligheter som man inte haft tidigare på större sensorer.

Sedan kan man ju undra om inte detta med samma teknik genom alla sensorstorlekar är något som av olika skäl kan genomföras nu men inte kunnat motiveras tidigare av både tekniska och kostnadsskäl eller så är det som det varit tills nu i alla fall där detta gått i vågor. Ofta har ju förändringarna när det gällt sensorer i alla fall kommit först i de små sensorerna (både högre packningstäthet och BSI-teknik t.ex.). Det är ju främst de stora sensorerna som släpat efter och det är där utvecklingen varit som långsammast och produktcyklerna som längst. Den senare faktorn talar väl fortsatt emot att vi någonsin ska vara helt i synk tekniskt från 1" till MF-sensorer annat än tillfälligtvis.
 
Men kan man inte tänka sig liknande tänk med sensorer som med stora displayer som Sonys senaste teknik där man gör jätteskärmar genom att dela upp en stor yta i mindre.
Menar du som den här? :)

Med BSI-teknik så kan man väl i princip nu lägga en massa fysiska komponenter på baksidan av en större sensor som skulle kunna bestå av ett antal mindre både fysiskt och logiskt hopkopplade sensorer om man nu ville dra nytta av den principen att mindre elektroniska komponenter ger bättre prestanda och mindre störningsproblem. BSI måste ju ge nya möjligheter som man inte haft tidigare på större sensorer.
Man kommer nog inte ifrån att strömförbrukningen blir ungefär lika stor som om man hade haft en enda stor sensor.

Jag gissar också att störningsproblem kanske inte blir värre, men inte heller färre eftersom man måste dra fler ledningar tvärs över sensorerna som bygger upp hela jättesensorn.
 
Menar du som den här? :)


Man kommer nog inte ifrån att strömförbrukningen blir ungefär lika stor som om man hade haft en enda stor sensor.

Jag gissar också att störningsproblem kanske inte blir värre, men inte heller färre eftersom man måste dra fler ledningar tvärs över sensorerna som bygger upp hela jättesensorn.

Nä jag menar inte som den där. Sony lanserade för bara någon månad sedan en ny bildskärmsteknik på SAR som ska möjliggöra i princip hur stora plattskärmar som helst och det gör man genom att logiskt/fysiskt koppla ihop mindre enheter men man ser inte detta fysiskt utan allt ser ut som en enda jätteskärm.

Man kan kanske välja då att göra en del av jobbet så nära varje logisk del som möjligt och sedan pussla ihop helheten när delmängden väl är processad.

Jag hittade länken från Gizmodo som tydligen var ursprungliga källan.

http://gizmodo.com/sonys-gigantic-space-wall-is-actually-hundreds-of-tiny-1790782233

Verkar rätt häftigt:

That image above appears to show one giant seamless LED display, but Sony’s new CLEDIS system, presumably intended for use in convention centers like the one hosting CES in Las Vegas, is actually hundreds of LED tiles smooshed together.

Each tile is just 17.875 inches wide, and stitched together, they could build you a wall of infinite size. The above display is 36 feet by 9 feet, at a resolution of 8K by 2K.
 
Att pussla ihop flera mindre sensorer borde ställa till samma problem som det gör med skärmar - det blir svårt att få färgåtergivning och annat att stämma exakt överens.
 
Sensorchipstillverkarna har ju länge "sytt ihop" ett par mindre chips för att få ett större. Jag vet inte det har ändrats, men länge var det inte möjligt att tillverka ett chip i småbildstorlek utan att bygga ihop det av två mindre delar.

Jag vet inte om det är den tekniken Sten-Åke syftar på eller om det är något annat.
 
Sensorchipstillverkarna har ju länge "sytt ihop" ett par mindre chips för att få ett större. Jag vet inte det har ändrats, men länge var det inte möjligt att tillverka ett chip i småbildstorlek utan att bygga ihop det av två mindre delar.

Jag vet inte om det är den tekniken Sten-Åke syftar på eller om det är något annat.

Jo det är det ju men nu är ju säkert förutsättningarna än bättre att lägga en del stödfunktioner nära den upptagande ytan än bättre med BSI än med den äldre tekniken.
 
Att pussla ihop flera mindre sensorer borde ställa till samma problem som det gör med skärmar - det blir svårt att få färgåtergivning och annat att stämma exakt överens.

Men om man nu kan lägga en del processning närmare upptagande utan och få mindre störningar än tidigare så kanske det problemet minskar det med.

Jag har aldrig sett Sonys nya CLEDIS system i verkligheten men deras strävan är säkert att adressera den typen av problem om de nu fortfarande är något problem.

Man har ju länge talat om att man skulle kunna göra en film man skulle kunna projicera bild genom men det verkar ännu inte vara dags för det utan det ser väl mer ut som om "stiching"-av ett antal mindre projektionsytor är den väg man fortsatt verkar välja.

Hur som helst så är ju detta en spännande utveckling. Kvaliteten på bildåtergivningen lär ju bli bra mycket bättre än någon annan gammal "Jumbotron"-teknik. Det är väl av dessa skäl de också för fram 8K för att i sammanhang som dessa så är väl även 4K för lite. Vi har nog långtifrån sett slutet på pixelracet än vare sig i sensorer eller bildskärmar även om det vi redan har räcker för de allra flesta tillämpningar vi idag känner.
 
Med BSI-teknik så kan man väl i princip nu lägga en massa fysiska komponenter på baksidan av en större sensor som skulle kunna bestå av ett antal mindre både fysiskt och logiskt hopkopplade sensorer om man nu ville dra nytta av den principen att mindre elektroniska komponenter ger bättre prestanda och mindre störningsproblem. BSI måste ju ge nya möjligheter som man inte haft tidigare på större sensorer.

Som Per nämnde görs småbildssensorer och större sensorer genom att foga samman i alla fall två halvor.

Som jag förstår det är problemet med att foga samman delar att alla ingående delar måste ha minst en ytterkant för att du skall få till utläsningen - du läser inte signalen i djupled utan genom ena kanten. Så att göra två halvor går nog ganska bra, då läser du ut halva sensorn åt ett håll, andra halvan åt motsatt håll. Skall du ha fyra delar eller fler får du ha delar i mitten som läses ut uppåt eller nedåt och då börjar det bli rejält krångligt att få dem att fungera ihop plus att själva tillverkningen blir komplex (dvs dyr). Omöjligt är det antagligen inte och slänger du upp några hundra miljoner kan nog Sony eller någon annan snickra ihop en sådan sensor, men jag är skeptisk att det skulle vara ekonomiskt realistiskt för konsumentkameror. Tänk på att kamerasensorer av den storlek vi talar om här tillverkas i försvinnande små serier i relation till de flesta andra komponenter och då har man inte råd med några speciellt dyra speciallösningar innan priserna drar iväg till absurda nivåer.

Skall du ha en riktigt stor sensor lär du nog få hålla dig till CCD som ju tillverkas på ett helt annat sätt där stora storlekar är i alla fall mindre problematiskt.

Och BSI påverkar nog inte saken på någon nämnvärt sätt, det förändrar inte grundprincipen att du läser ut data rad- eller kolumnvis och därför behöver plocka upp utdata vid sensorns fysiska kant.
 
Som Per nämnde görs småbildssensorer och större sensorer genom att foga samman i alla fall två halvor.

Som jag förstår det är problemet med att foga samman delar att alla ingående delar måste ha minst en ytterkant för att du skall få till utläsningen - du läser inte signalen i djupled utan genom ena kanten. Så att göra två halvor går nog ganska bra, då läser du ut halva sensorn åt ett håll, andra halvan åt motsatt håll. Skall du ha fyra delar eller fler får du ha delar i mitten som läses ut uppåt eller nedåt och då börjar det bli rejält krångligt att få dem att fungera ihop plus att själva tillverkningen blir komplex (dvs dyr). Omöjligt är det antagligen inte och slänger du upp några hundra miljoner kan nog Sony eller någon annan snickra ihop en sådan sensor, men jag är skeptisk att det skulle vara ekonomiskt realistiskt för konsumentkameror. Tänk på att kamerasensorer av den storlek vi talar om här tillverkas i försvinnande små serier i relation till de flesta andra komponenter och då har man inte råd med några speciellt dyra speciallösningar innan priserna drar iväg till absurda nivåer.

Skall du ha en riktigt stor sensor lär du nog få hålla dig till CCD som ju tillverkas på ett helt annat sätt där stora storlekar är i alla fall mindre problematiskt.

Och BSI påverkar nog inte saken på någon nämnvärt sätt, det förändrar inte grundprincipen att du läser ut data rad- eller kolumnvis och därför behöver plocka upp utdata vid sensorns fysiska kant.

Men det kanske faktiskt inte är några större problem att dra de ledningarna ut på baksidan istället med BSI. Framtiden får väl utvisa vilka behov man ser sig ha och det är ju definitivt enklare att lägga funktioner på en BSI-sensors baksida än att knöka in dem bland alla pixlar på den belysta sidan som man skulle varit tvungen till med det gamla tänket.
 
Men det kanske faktiskt inte är några större problem att dra de ledningarna ut på baksidan istället med BSI. Framtiden får väl utvisa vilka behov man ser sig ha och det är ju definitivt enklare att lägga funktioner på en BSI-sensors baksida än att knöka in dem bland alla pixlar på den belysta sidan som man skulle varit tvungen till med det gamla tänket.

Men en BSI-sensor är inte fundamentalt annorlunda en en vanlig sensor, det är enkelt uttryckt bara ordningen på skikten i den som skiljer. Så den lösning du föreslår fungerar skulle fungera lika bra eller misstänker jag, snarare lika dåligt i en traditionellt byggd sensor. BSI-tekniken påverkar inte hur utläsningen går till.

Det du föreslår skulle innebära att du läste ut och adresserade pixlar individuellt och det är jag mycket, mycket skeptisk till att det är en lösning som skulle fungera i praktiken. Det är ju inte så att du kan dra en individuell sladd till varje pixel på baksidan, utan de "ledningarna" skulle du få lösa med en oerhörd massa extra skikt i sensorn som skall vara isolerade från varandra. Om det ens är praktiskt möjligt skulle det innebära en enormt tjock sensor som byggs upp i ett absurt stort antal processteg som innebär att en enda sådan sensor skulle kosta hundratals om inte tusentals gånger mer att tillverka. Om det då, vilket jag tvivlar på, ens är praktiskt möjligt.

Du skulle dessutom troligen få helt mycket svårhanterliga problem med att det i uppstår små skillnader i utläsningen av pixlarna vilket ju påverkar resultatet en hel del - tänk bara hur svårt det är att undvika sådana skillnader idag - det vis er som bandning - så som man arbetar idag där du läser ut rad- eller kolumnvis som ju innebär ett mycket färre antal utläsningar att matcha ihop.
 
Men en BSI-sensor är inte fundamentalt annorlunda en en vanlig sensor, det är enkelt uttryckt bara ordningen på skikten i den som skiljer. Så den lösning du föreslår fungerar skulle fungera lika bra eller misstänker jag, snarare lika dåligt i en traditionellt byggd sensor. BSI-tekniken påverkar inte hur utläsningen går till.

Det du föreslår skulle innebära att du läste ut och adresserade pixlar individuellt och det är jag mycket, mycket skeptisk till att det är en lösning som skulle fungera i praktiken. Det är ju inte så att du kan dra en individuell sladd till varje pixel på baksidan, utan de "ledningarna" skulle du få lösa med en oerhörd massa extra skikt i sensorn som skall vara isolerade från varandra. Om det ens är praktiskt möjligt skulle det innebära en enormt tjock sensor som byggs upp i ett absurt stort antal processteg som innebär att en enda sådan sensor skulle kosta hundratals om inte tusentals gånger mer att tillverka. Om det då, vilket jag tvivlar på, ens är praktiskt möjligt.

Du skulle dessutom troligen få helt mycket svårhanterliga problem med att det i uppstår små skillnader i utläsningen av pixlarna vilket ju påverkar resultatet en hel del - tänk bara hur svårt det är att undvika sådana skillnader idag - det vis er som bandning - så som man arbetar idag där du läser ut rad- eller kolumnvis som ju innebär ett mycket färre antal utläsningar att matcha ihop.

Jo BSI-sensorer är fundamentalt annorlunda och ger helt nya möjligheter som inte den äldre designen kan ge. Läs själv. Det är ju inte jag som hittat på detta utan bl.a. Olympus och Sony. För en gångs skulle är det nog inte bara marknadsblaj.

En skillnad och ny möjlighet med BSI är ju också att man kan lägga saker som gör nytta på baksidan av sensorerna, vilket man inte kunde/ville göra tidigare. Detta har man inte tidigare talat så mycket om eftersom fokus med rätta legat på "verkningsgrad"/bättre prestanda i själva ljusinsamlandet.

Det är inte jag som hittat på detta med de nya möjligheterna BSI ger utöver de mest uppenbara utan något som utvecklas nu när BSI dessutom går från generation ett till "stacked" BSI där än fler smarta saker kan ske på baksidan av sensorn och inte minst för videotekniken sker nu en del i dessa "stacked layers" . "Förr" skulle ju allt samsas på samma sida och då fanns nog inte utrymme till så mycket mer än kablade och fotosensorer. Det nya är ju att det gör det nu och det är därför man man just skriver nedan att: "Better light sensitivity is just the beginning of what backside illumination makes possible."

Sony verkar ju utveckla Exmor RS nu (Exmor R står ju för BSI-typen av sensorer) och RS är alltså nästa steg som man kallar stacked, därav RS antar jag.

https://www.extremetech.com/extreme...hy-theyre-the-future-of-digital-photography/2

Se sidan 2 där man kan läsa följande:

"Future directions

Better light sensitivity is just the beginning of what backside illumination makes possible. Sony has shown that BI technology allows creating a sensor from a stack of chips instead of a single chip — so that the top chip can be optimized for capturing the light and the ones underneath can do the signal processing. A stacked design allows for additional processing at the pixel level without reducing the sensor’s light sensitivity. Recent advances in through-silicon vias (TSVs; interconnects between a 3D stack of chip dies) have made this type of layering possible. This stacking is the same technology that is used in multi-layer memory chips, so it is getting significant investment.

Olympus has demonstrated how a stacked (it calls it 3D) architecture can create new possibilities with its research prototypes of a BI sensor, with a nearly perfect shutter that it calls a “global” shutter. Like a rolling shutter the global shutter can work nearly instantly and without any moving parts, but avoids artifacts by placing the read out electronics on a lower layer behind a shield. Since it takes time to read all the data from a sensor, a rolling shutter can create smearing or other artifacts because the sensor is still actively receiving photons while the voltages are being read. The Olympus design transfers all of the charge off the sensor at once — to the lower, shielded layer — where they can then be read out accurately.

Sony has already started sampling a stacked version of a BI chip with its Exmor RS, which is expected to ship in volume this year. As BI technology continues to improve, look for Sony to be one of the first companies to use it in their larger sensor cameras. The larger pixel size of APS-C and full-frame cameras allows a high fill factor even with traditional front-illuminated technology, but as BI gets cheaper and stacked systems allow additional features, expect it to begin to appear in mirrorless and DSLR cameras."
 
BSI är väl i sig bra, men jag kan inte se hur det skulle göra skillnad just för att sätta ihop flera små sensorer till en stor.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar