Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Sensorstorlek

Produkter
(logga in för att koppla)
BSI är väl i sig bra, men jag kan inte se hur det skulle göra skillnad just för att sätta ihop flera små sensorer till en stor.

Martin har ju berört just det i diskussionen som gällde varifrån utläsning måste ske d.v.s. på en kant av sensorn. Möjligen kan man komma ifrån detta genom att dra ut ledningarna på baksidan istället om man nu måste "stitcha" olika mindre sensorytor. Kablaget behöver ju inte ligga i samma plan som photosensorerna på en BSI-sensor och då kanske det gör skillnad trots allt. Vi är ju bara i början av "stacked senors" eran och vi kommer säkert inom en hyfsat nära framtid att bli varse vad man kan tillföra med den tekniken. Helt klart är ju att både kisellagret blir mycket tunnare i BSI-sensorer än i traditionella och att man kan lägga stödande funktioner i dessa bakomliggande lager där man kan göra intressanta saker med det utlästa datat närmare det fotokänsliga skiktet.
 
Nog fins det fog att fundera över BSI, A7RII blev bra med höga DR även högt upp på ISO-stegen, så långt var det bra. När ersättaren till D810 kommer får vi se hur den står sig, D5 som inte har BSI är också bra högre upp på ISO skalan. Samsung NX1 var först med BSI och APS-C sensor, men den klev inte i från tex D7200 eller ens A6000 när Foto testade NX1 och jämförde med dom övriga som var bra vid den tiden, skillnaden var liten.
 
Som Per nämnde görs småbildssensorer och större sensorer genom att foga samman i alla fall två halvor.

Jag tror det är ett missförstånd. Större sensorer kan göras genom att exponera chippet flera gånger, helt enkelt för att utrustningen inte klarar av att "lysa ut" hela chippet på en gång. Det komplicerar tillverkningen en hel del, men det finns inga möjligheter att fysiskt sätta ihop flera delar. Den precision som skulle krävas är orimlig. Resultatet skulle bli en bred kolumn med döda pixlar.

http://blog.teledynedalsa.com/2012/...large-image-sensors-or-quilting-with-silicon/
 
Till att börja med får jag be om ursäkt för mig plötsliga tystnad, hela förra veckan och fram till nu på förmiddagen har det varit lite stressigt. Men nu är ett nytt nummer av FSM korrat och väl på väg till tryck :)

Jo BSI-sensorer är fundamentalt annorlunda och ger helt nya möjligheter som inte den äldre designen kan ge. Läs själv. Det är ju inte jag som hittat på detta utan bl.a. Olympus och Sony. För en gångs skulle är det nog inte bara marknadsblaj.

De ger en massa möjligheter ja, men det tar inte bort det fundamentala faktumet att du fortsätter läsa ut data längs periferin (en eller två kanter). Det de tar upp i artikeln du citerar är dels att man med BSI enklare kan göra mer bearbetning i varje pixel (vilket är mycket bra och väldigt intressant) och att man kan stacka lager med komponenter så man t.ex. kan ha temporär lagring inbyggt i själva sensorchippet (vilket Sony redan gör). Det de berättar om från Olympus arbete handlar ju om att man kan buffra utläsning från varje pixel i ett djupare lager (igen, man kan göra mer i varje pixel) vilket gör att man kan bygga en global slutare utan "tear" eller "rolling shutter". Men även där, när data skall plockas ut ur sensorchippet kommer det plockas ut i sidled (eller höjdled) till en eller två kanter för vidare transport. Den sidan av saken kommer du inte ifrån utan en design á la data-CPU med en myriad kontakter rakt bakåt vilket skulle vara en extremt klumpig och dyr konstruktion. Och kan man då temporärbuffra utläsningen i ett djupare lager så som Olympus verkar vara inne på finns det ju verkligen ingen anledning att krångla till det med en sådan lösning.

Mer allmänt:

På CCD-tiden var väl ett av huvudmotiven för BSI-teknik att maximera ljusinsamlingen (inte skymma de ljuskänsliga delarna med den överliggande elektroniken), det motivet gäller väl även CMOS med mycket små pixlar (som i mobiltelefoner, industrisensorer och möjligen i kompaktkameror). Men i våra systemkamerasensorer med sina (jämförelsevis) mycket stora pixlar är så vitt jag förstår inte ljusinsamlingen något stort problem - delvis tack vare dagens allt mer avancerade mikrolinser. Men det finns en annan intressant fördel som blir allt viktigare ju fler pixlar vi klämmer in på sensorerna och det är att en BSI-sensor potentiellt kan vara mindre känslig för att objektiv inte är riktigt telecentriska. Ni vet, det klassiska problemet med gamla Leica-objektiv på moderna spegelfria kameror. Om en BSI-sensor kan vara mer tolerant för lite snett infallande ljus kan man ju bygga mer kompakta objektiv. Plus att man verkligen får ut det extra ljuset vid riktigt stora maxbländare (f/1,4, f/1,2, f/1 och liknande). Med majoriteten av dagens traditionellt byggda sensorer Idag kan man ju lite slarvigt säga att det ur ren ljusinsamlingssynpunkt inte finns så stora poänger att ha maxbländare större än f/1,8 - f/1,6.

Men där BSI blir verkligt intressant är ju just det som Sony-artikeln tar upp, att man kan göra mer bearbetning direkt i pixeln. De tar ju upp det lockande exemplet med global slutare. Men tänk också på att ju mer man kan korta de analoga signalvägarna, desto bättre. Vi har ju de senaste tio åren sett vilken enorm fördel man får av att ha A/D-omvandlingen inbyggt i kanten av sensorchippet (grundsstenen i Sonys Exmor-sensorer) och konvertera rad- eller kolumnvis direkt i sensorchippet istället för att frakta iväg signalen utanför till en separat A/D-omvandlare bredvid. Tänk om man kunde göra A/D-omvandlingen i varje pixel, då skulle vi knappt ha några analoga signalvägar alls :)

Så att man idag kan bygga BSI utan att det verkar bli så mycket dyrare (förr var det ju galet dyrt) är ju ett stort steg framåt.
 
Jag tror det är ett missförstånd. Större sensorer kan göras genom att exponera chippet flera gånger, helt enkelt för att utrustningen inte klarar av att "lysa ut" hela chippet på en gång. Det komplicerar tillverkningen en hel del, men det finns inga möjligheter att fysiskt sätta ihop flera delar. Den precision som skulle krävas är orimlig. Resultatet skulle bli en bred kolumn med döda pixlar.

http://blog.teledynedalsa.com/2012/...large-image-sensors-or-quilting-with-silicon/

Jo, det har du helt rätt i, stitchingen syftar ju på litografin, att fysiskt foga samman flera slikonbitar skulle vara sannolikt en övermäktig uppgift med mycket dålig yield :)

Det är ju (som han nämner i artikeln) svårt nog att få till till litografi i flera steg utan att lämna spår. Jag vet att Iliah Borg (han med Rawdigger) för flera år sedan kunde visa hur de två halvorna av sensorn i Nikon D3 faktiskt skilde en liten, liten aning (mätbart, men inte synbart).

Några noterbara citat ur artikeln:

"All of a sudden the largest device that could be manufactured in a single exposure was of the order of 25 mm x 25 mm. " - någon som undrat varför just APS-C-sensorer på 18x24 mm dominerat systemkameramarknaden? :) Sedan verkar Canon haft större litografimasker, de kunde ju göra APS-H-sensorer, 33,5x27,9 mm, i ett skott.

"Once the circuitry that surrounds the pixel array is added (different blocks on the mask) then the device is complete." - det ju Sony gjorde med sin Exmor-teknik var ju att bygga in A/D-omvandligen i "circuitry that surrounds the pixel array", dvs i kanten av själva sensorn istället för att sköta A/D-omvandling i separata komponenter vid sidan av själva sensorn.
 
Jag håller med Martin A om att det är en ganska bra artikel, men jag tror att Thein missar lite när han förutsäger att "in a way, digital will be like film again".

Visst kan man göra analogin mellan olika ISO-inställningar på en digital bildsensor och filmer med olika ISO-känslighet, men det finns andra skillnader mellan filmtyper, t.ex. korngeometri, som är svårare att göra en digital analogi till. Olika sorters färgfilter (Bayer vs. X-trans) är inte något som går att göra en bra analogi av åt andra hållet.

Ju snabbare vi inser att digital fotografering är rejält annorlunda mot filmbaserad fotografering, tekniskt sett, desto bättre. Vi har fortfarande alldeles för mycket bagage från filmtiden när vi diskutera digital fotografering.

(Men min invändning kanske neutraliseras av Theins "in a way"? :)

Jag tycker (faktiskt) att ni bägge har relevanta invändningar/poänger.

Finns många likheter med kemibaserad fotografering, och sensorbaserad. I andra fall så skapar sensorbaserad fotografering helt nya möjligheter och förutsättningar som inte alls är analoga med den kemibaserade (som du är inne på).
 
Jag håller med Martin A om att det är en ganska bra artikel, men jag tror att Thein missar lite när han förutsäger att "in a way, digital will be like film again".

Visst kan man göra analogin mellan olika ISO-inställningar på en digital bildsensor och filmer med olika ISO-känslighet, men det finns andra skillnader mellan filmtyper, t.ex. korngeometri, som är svårare att göra en digital analogi till. Olika sorters färgfilter (Bayer vs. X-trans) är inte något som går att göra en bra analogi av åt andra hållet.

Ju snabbare vi inser att digital fotografering är rejält annorlunda mot filmbaserad fotografering, tekniskt sett, desto bättre. Vi har fortfarande alldeles för mycket bagage från filmtiden när vi diskutera digital fotografering.

(Men min invändning kanske neutraliseras av Theins "in a way"? :)

Det är ju en sak om man närmar sig en situation - åtminstone övergångsvis - där produktcyklerna mellan system av olika sensorstorlek har samma pixeldensitet. Vi får väl se om det håller över tid för det har ju fortsatt varit så hittills att den snabbaste teknikutvecklingen varit kring de mindre sensorerna och denna har nått exv. FF betydligt senare inte minst av just produktcykelskäl där denna kan vara både 3 och 4 år i detta segment men betydligt kortare i andra.

Det där är ju dock bara en enda sida av myntet. Med filmen hade man inget val att i någon större utsträckning påverka kornet i efterhand utan det var ju hyfsat givet av mediat om vi nu inte ska lägga alltför stor vikt vid den mer marginella möjligheten att "pressa" filmen.

Med det digitala är ju möjligheterna helt annorlunda och det finns ju faktiskt mycket större möjligheter idag att få en digital bild intill förvillelse lik vilket gammalt analogt filmstuk som helst. Det säljs ju numera "filmpacks" med 100-tals filter från X antal tillverkare. Så idag kan vilken filmnostalgiker som helst åtgärda den abstinensen relativt både billigt och enkelt.

Så visst är digitalt i grunden oerhört annorlunda en det analoga men det behöver märkligt nog inte det färdiga bildresultatet upplevas vara. Därför kan jag tycka det är lite konstigt och förvånande att några unga fotografer här på FS deklarerade att de tänkte gå över till analoga. Om man kan åstadkomma bilder som intill förvillelse upplevs likvärdiga i uttryck och känsla digitalt så återstår väl bara det halvt osunda blasket med kemikalier och en rejält sänkt produktivitet som resultat och i slutänden är det väl ändå den som ska betala fotografernas räkningar i en värld där fotograferna kläms allt hårdare av den "järnhårda lönelagen".

Det vore intressant om FS kunde följa upp hur det gick med det där analoga teknikvalet de gjorde.
 
Nästa steg börjar som vanligt nedifrån

Sony release 4k screen mobile with 960 FPS dram stacked sensor. Has predictive and laser Autofocus too!

SAR idag: Today Sony announced their new Xperia XZ flagship mobile phone. And its the first device that uses the new DRAM stacked sensor capable of shooting 960 fps! It also has predictive and laser autofocusing

Sedan är frågan hur länge den nya tekniken kommer att ta på sig innan den dyker upp i vanliga kameror hela vägen till FF där den förmodligen hamnar sist i vanlig ordning. ... och laser AF! Kan det vara något?
 
capable of shooting 960 fps!
I vilken upplösning? Jag köpte en rätt billig kompaktkamera (Casio) för 6-7 år sen som kunde ta videofilmer i 1000 bilder per sekund, men då var antalet pixlar som användes kraftigt begränsat från sensorns fulla upplösning, så jag är lite nyfiken på hur långt utvecklingen har kommit.
 
I vilken upplösning? Jag köpte en rätt billig kompaktkamera (Casio) för 6-7 år sen som kunde ta videofilmer i 1000 bilder per sekund, men då var antalet pixlar som användes kraftigt begränsat från sensorns fulla upplösning, så jag är lite nyfiken på hur långt utvecklingen har kommit.

960 @720p skriver dpreview.
960fps slow motion at 720p

Sony skriver vara 960fps
https://www.sonymobile.com/global-en/products/phones/xperia-xz-premium/specifications/

Enligt ARSTechnica så spelar den in 960 under 0,16 sekunder för att sedan kunna spela upp den fångade sjättedelen under 5 sekunder.

Kul? Kanske.
Användbart? Tveksamt.
 
... det har ju fortsatt varit så hittills att den snabbaste teknikutvecklingen varit kring de mindre sensorerna och denna har nått exv. FF betydligt senare inte minst av just produktcykelskäl där denna kan vara både 3 och 4 år i detta segment men betydligt kortare i andra.

Om vi talar om riktigt små sensorer för mobiler och industriellt bruk jämfört med sensorer i entusiastkameror så håller jag helt med. Och om vi talar om generell teknikutveckling i sensorer håller jag delvis med. Men om vi talar om bildprestandautveckling i de sensorstorlekar vi oftast diskuterar här i forumen - segmentet från entum via Four Thirds, APS-C, småbild och upp till små mellanformatssensorer - så håller jag nog inte riktigt med. I det här senare storleksomfånget skulle jag säga att bildprestanda rent generellt blivit allt mer enhetlig oberoende av sensorstorlek de senaste 3-4 åren. Till stor del handlar det om att utvecklingen av bildprestanda helt enkelt har saktat in senaste åren. (Säkert självklart för många, men bara för att vara tydlig: jag talar om bildprestanda/ytenhet.)

Den här prestandanivån vi ser idag och som vi med rätt små justeringar haft ganska länge dök ju först upp i och med Sonys APS-C-sensor på 16 megapixel som kom 2010. Sedan 2011 kom småbildsversionen av den sensortekniken (även om det sedan dröjde in på 2012 innan de kamerorna dök upp, de flesta kommer nog ihåg varför). Och sedan i slutet av 2012 verkade samma sensorteknik ha letat sig in i Four Thirds-sensorer (vilket nog kan ha mycket att göra med det samarbete Sony och Olympus inledde i den vevan). Sedan kom det en 20-megapixels entumssensor (RX100) 2012 med ungefär samma bildprestanda. Och så sommaren 2014 fick vi liknande prestanda i mellanformatssensorer.

Jag säger inte att bildprestandautveckligen helt har avstannat, men faktum är att prestandanivån i den där 16 megapixelssensorn som kom 2010 har stått sig bra. Kameror med den sensordesignen säljs ju fortfarande och det är väl bara precis nu de sista kameramodellerna med den sensordesignen till slut fasats ut (Fujifilm). Men min allmänna poäng är att den där nivån av bildprestanda dels inte förändrats så mycket och framför allt att den idag har spritt sig över alla sensorstorlekar vi entusiaster normalt använder. Visst finns det skillnader, men de är trots allt ganska små idag.

Sedan är det ju så, och kommer nog inom överskådlig tid fortsätta vara så, att mindre sensorer kan ha högre klockfrekvens än större och därmed kan läsas ut snabbare. Och visst dyker saker som stackad design upp först i mindre storlekar, men det har ju inte så direkt påverkan på bildprestanda. Viss ny teknik är ju sedan lite ojämnt utspridd mellan storlekar: Idag har vi ju BSI-teknik dels i entummare, men också i småbildsformat, men så vitt jag vet vare sig i Four Thirds eller APS-C (jag väljer att inte låtsas om Samsung för ögonblicket :) Eller se på Canon där det gick ganska fort att sprida dual-pixel-designen från APS-C till småbild (de två sensorstorlekar de tillverkar numera). Canon har över huvud taget ofta haft ganska likartad sensorteknik i APS-C som de har i småbild.

Men om vi håller oss till direkt bildmässiga prestanda som DR/brus så skulle jag säga att tekniknivån är ganska jämn oavsett storlek idag. Visst har de mindre sensorerna en tätare pixelgeometri (20 MP i en entumssensor motsvarar ju runt 140-150 MP i en småbildssensor), men tittar man på bildnivå ligger ju (nästan) alla idag, oavsett storlek, i intervallet 20-50 MP och skillnaden mellan 20 och 50 är trots allt inte så drastisk (man får ju gå från 20 till 80 för att få en dubbling av den linjära upplösningen).

Kort sagt: Jag håller inte riktigt med om att mindre sensorer numera konsekvent ligger före större sett till bildprestanda. Jag håller helt med om att det var så förr och fortsatt är så man jämför med riktigt små sensorer som tillverkas i mycket större serier (mobil- och industrisensorer). Och visst dyker nya tekniklösningar generellt upp i de kommersiellt viktigaste storlekarna först. Men som man kan se på exemplet med BSI-tekniken så är avvägningen om vilken storlek som är kommersiellt mest intressant inte lika entydig längre. Där gick ju tydligen småbild före både APS-C och For Thirds.
 
Håller helt med Martin A ovan. Precis som utveckling av processorer för datorer planat så har även utvecklingen av sensorer för fotokameror gjort i stort sätt samma sak.

Där jag ser att det händer mest i kameror är inte på IQ/DR-sidan, utan framförallt gällande AF-sidan (där bidrar nya sensorer mycket för att lyfta spegellösa kamerahus) och EVF:er.
 
ANNONS
Spara upp till 12000 kr på Nikon-prylar