Annons

Sensorstorlek

Produkter
(logga in för att koppla)
Jag hittade en förklaring i K&B om hur bruset påverkas av sensorstorleken.
Är det en bra förklaring eller är något som behöver modifieras?


"Tänk dig att varje pixel i kamerans sensor är en hink och varje ljuspartikel är en boll. Om inga bollar träffar hinken under exponeringen så blir den pixeln svart. En hink som är full med bollar blir vit. Antalet bollar (mängden ljus) översätts till en elektrisk signal och ger ett ljushetsvärde för den pixeln. Tyvärr kan en pixel ge felaktiga signaler och ge signal även om den inte utsätts för ljus. Om en hink har 20 bollar i sig och felvärdet är 20 blir felet väldigt tydligt (100% fel). En annan hink som är fylld med 10 000 bollar och har felvärdet 20 kommer att ge en signal som är mycket nära sanningen (bara 2‰ fel). Brus är därför mest synligt i bildens mörka delar. Ju fler bollar du har i hinken desto mindre blir problemet med brus. I en stor sensor är varje pixelhink större och rymmer fler bollar. Då är det lätt att förstå att sensorn i en systemkamera ger mindre brus är sensorn i en mobilkamera, och en fullformatssensor ger mindre brus än en sensor i mindre format.
Varför ger ett högre ISO-tal mer brus? Det beror också på antalet bollar i hinken. Ett högre ISO-tal gör visserligen att du kan fotografera i svagare ljus, men det gör inte sensorn mer ljuskänslig. Låt oss säga att en pixelhink vid ISO 200 skulle fyllas med 1000 bollar vid korrekt exponering. Vid ISO 800 behöver vi bara fylla 250 bollar i hinken (vilket ger snabbare exponeringstid) eftersom kamerans programvara multiplicerar signalen med 4. På så vis kan det liknas vid 1000 bollar och ger ändå en korrekt exponering. Men när signalen förstärks kommer också bruset att framträda. Färre bollar (en mindre exponering) ger mer brus, eftersom även mindre signalfel blir tydligare vid förstärkning."

Nja. De är på rätt spår att brus märks mer ju svagare signal man hanterar, men av någon anledning blandar de in missförståndet att pixelstorlek (eller hinkstorlek i deras exempel) är en viktig faktor. En orsak till det missförståndet (som de är långt ifrån ensamma om) kan nog vara att man mentalt fastnar lite i liknelser som bollar och hinkar. Där känns det naturligt att tänka att ju större hinkarna är, ju mer rymmer de, och ju mer signal du samlar in, ju mindre märks bruset.

De har rätt att mängden ljus man kan samla in i varje pixel spelar roll, men saken är att den kapaciteten hos pixlar (ofta kallat FWC, eller Full Well Capacity) faktiskt inte har så mycket med pixelns fysiska storlek att göra, det styrs mer av hur den byggts upp. Faktum är att man genom sensorutvecklingen minst lyckats bibehålla eller rent av oftast öka FWC när man gör nya sensorer, trots att man minskar pixelstorleken.
 
Joakim Bengtsson skrev för flera år sedan, tror det var i samband med den stora pixeldebatten, att få så lite brus som möjligt så skall kameran ställas in på långa tider, så att den samlar in så mycket ljus som möjligt och med största bländar öppning ( passar så klart inte till alla motiv situationer ) ungefär i samma veva så visades en del bilder tagna med någon kamera ur Canons G-serie ( någon Canon ambassadör tror jag det var )- som då var en känd kompakt prokamera och denna lilla sensor som var brukligt på den tiden, det var flera skogsbilder med tider som en 1/15, dom här bilderna såg ovanligt bra ut, han liksom kramade ut det bästa som gick med dessa skogsbilder, det verkade vara vindstilla och vackert vid tillfället.


//Bengt.
 
Joakim Bengtsson skrev för flera år sedan, tror det var i samband med den stora pixeldebatten, att få så lite brus som möjligt så skall kameran ställas in på långa tider, så att den samlar in så mycket ljus som möjligt och med största bländar öppning ( passar så klart inte till alla motiv situationer ) ungefär i samma veva så visades en del bilder tagna med någon kamera ur Canons G-serie ( någon Canon ambassadör tror jag det var )- som då var en känd kompakt prokamera och denna lilla sensor som var brukligt på den tiden, det var flera skogsbilder med tider som en 1/15, dom här bilderna såg ovanligt bra ut, han liksom kramade ut det bästa som gick med dessa skogsbilder, det verkade vara vindstilla och vackert vid tillfället.

I grund och botten är det ju ganska enkelt: Vi skapar bilder av ljus - något i stort sett varenda nybörjarkurs i foto inleds med, men som vi överraskande ofta ändå glömmer bort :)

Så dels spelar ljusets kvalitet roll (t.ex. inte för monokromt, vi gillar ofta släpljus osv), men ser vi till den tekniska bildkvaliteten spelar helt enkelt mängden ljus en mycket stor roll. Det är grundläggande informationsteori: ju mer data du samlar in, ju bättre teknisk kvalitet kan du få i ditt slutresultat. Det gäller alla former av mätningar.

Att öka mängden insamlat ljus kan man göra på många olika sätt: Vi kan ta bilder i så starkt ljus som möjligt. Vi kan använda längre slutartider. Vi kan använda större bländare (ha ljusstarkare objektiv). Och, inte minst, vi kan använda en större insamlingsyta. Eller någon kombination av ovanstående.

Så har vi starkt ljus, eller kan använda väldigt lång slutartid, ja då spelar inte sensorstorleken eller maxbländaren så stor roll. Men omvänt, när vi har svagt ljus och vi ändå vill ha korta slutartider, ja då blir både maxbländare och sensorstorlek viktig.

Hela rabaldret med ekvivalent bländare handlar ju i grund och botten oftast om att kunna jämföra ljusinsamling hos olika kameror enbart genom att uppge ett (ekvivalent) bländarvärde och inte behöva fundera på skillnaderna i sensorstorlek. Vi uttrycker skillnaden mellan två kameror i en parameter som de flesta av oss har lätt att bedöma istället för att blanda in en som vi har svårare att intuitivt förstå vilken skillnad den gör. Annorlunda formulerat: De flesta av oss har lättare att omedelbart och intuitivt tolka skillnaden mellan f/2,8 och f/5,6 än vi har att tolka skillnaden mellan två sensorstorlekar.
 
Hoppas att du Martin orkar fortsätta med dina kloka förklaringar om ekvivalens # värt att veta, orsak och verkan #. för det kommer aldrig att stoppa.


Låt säga att jag varit en C/N ägare med lite större fotointresse och mera pengar, kanske börjat med en Canon FF MKII, hade nog direkt köpt på mig någon 50mm och givetvis det prisvärda 70-200f/4, flera objektiv hade nog köpts in under åren, inte omöjligt att man startat med första 5D, detta hade jag då delat med flera tusen andra lika sinnade, så högsäljande som nu tex Canon kameror alltid varit, man sitter där med objektiv som har optisk stab första generation ( är vi uppe i 4-5 generation nu, utvecklingen går ständigt framåt ) men hur mycket pengar har vi för byte av objektiv, vi kan byta och sälja, men är det stopp snart, autofokusen blir allt mera avancerad, kräver effektiva motorer i objektiven för att hänga med.


Nya Canon FF-ägare vill väl inte köpa dom gamla objektiven med slöare motorer, hur många objektivköp orkar vi med om man inte är en superentusiast, nya MK4 kostar 40 papp, ny kommande Sony FF kan kosta ännu mera, hur får vi råd att handla, ekvivalens kommer att drabba på andra sätt än bara sensorstorlekar om vi inte har råd att byta upp till finare objektiv, så fins risken att bildkvaliteten blir lidande, en ny 6DII kommer nog i paket med något 24-120f/4, får inte bli för dyr måste sälja och så ger objektivet bäst skärpa vid f/5,6-f/8,0 Ekvivalensen slår bakut direkt, lite OT kan tycka men strävan att få till det rätta bästa kompromissen blir allt svårare.
 
Hoppas att du Martin orkar fortsätta med dina kloka förklaringar om ekvivalens # värt att veta, orsak och verkan #. för det kommer aldrig att stoppa.


, lite OT kan tycka men strävan att få till det rätta bästa kompromissen blir allt svårare.

Ja, låt oss hoppas att dom orkar med oss. En annan tanke som slår mig är att sensorns förmåga idag att registrera detaljer är bättre än dagens objektiv? (det är en fråga inte ett påstående)

Hur stor skillnad är det mellan en "5 år gammal" canon 5d mk3 och en 5d mk4, för bilder. Det skiljer 15tkr i pris. Kan det vara så att en ny mk3 tar lika bra bilder som en ny mk4?

Att jämföra kameror från samma tillverkare och vad det gör för bilden är inte lätt. Det blir inte lättare av att det finns olika tillverkare och sensorstorlekar för att inte nämna alla olika objektiv. Men kanske förstorar jag det hela.
// Jörgen
 
Ja, låt oss hoppas att dom orkar med oss. En annan tanke som slår mig är att sensorns förmåga idag att registrera detaljer är bättre än dagens objektiv? (det är en fråga inte ett påstående)

Det här är ju en fråga som i perioder stötts och blötts en hel del ... Inte minst när de först dök upp kameror med mer än 20 megapixel och sedan ett varv till några år senare när de första kamerorna med över 30 megapixel dök upp.

För att börja med det uppenbara: Den slutliga bildkvaliteten (och här talar jag, förstås, enbart om teknisk kvalitet) beror ju både av hur bra optik man har och hur bra sensorn är. Är den ena, eller bägge, inte av toppkvalitet så tappar man i slutresultat. Optimal bildkvalitet får man förstås med det (för just den bilden man vill ta) absolut bästa objektivet framför den absolut bästa sensorn. Så långt är de ju enkelt.

En annan sak som nog känns uppenbar är ju att i princip varje sensor, även de med få megapixel, vinner på om du byter till ett bättre objektiv. Men vad många kanske inte alltid tänker på är att även det motsatta stämmer: I stort sett varje objektiv, även de mediokra, vinner på att placeras framför en bättre sensor.

Så alla objektiv tjänar på att man byter till en mer högupplöst kamera. Även de mediokra eller rent av dåliga objektiven. Men fördelen med en bättre sensor märks förstås mer ju bättre objektiv du har.

Hur stor skillnad är det mellan en "5 år gammal" canon 5d mk3 och en 5d mk4, för bilder. Det skiljer 15tkr i pris. Kan det vara så att en ny mk3 tar lika bra bilder som en ny mk4?

Ja och nej :)

Först det vanliga problemet i sådana här diskussioner: Bilder kan vara fantastiskt bra utan att hålla speciellt hög teknisk kvalitet. Vilket med jämna mellanrum ger någon diskussionsdeltagare en omstörtande och originell insikt (nu är jag lite ironisk :) som de genast måste bidra med: "det är fotografen som gör bilderna, inte utrustningen". Jo, förvisso. Men man kan lika gärna säga att utan kamera får inte ens den mest fantastiske fotograf några bilder och att det nästan alltid är enklare att få till (fler) bra bilder med bra utrustning. Bra bilder är helt enkelt ett lagarbete mellan fotografens skicklighet och utrustningens förmåga.

Om vi ser på just Eos 5D Mark III vs Eos 5D Mark IV så finns det dels verkliga skillnader i teknisk bildkvalitet. Som att den nyare kameran har bättre dynamiskt omfång. Och lite bättre detaljteckning. Men man har också faktorer som en lite snabbare, lite träffsäkrare autofokus, en aning snabbare serietagning osv, osv. Lägger man ihop alla de här sakerna handlar det om att det är en kamera som gör det lite enklare för fotografen att lite oftare få lite fler bättre bilder. Det låter ju inte så himlastormande, men för till exempel en yrkesfotograf innebär det helt enkelt mer och bättre arbete utfört med mindre besvär. Och eftersom man antagligen ändå slitit ut den gamla kameran, så är ett byte närmast självklart.

Jämför du istället en Eos 5D Mark II vs en Eos 5D Mark IV blir ju skillnaderna större och fördelarna fler. För många entusiaster kanske det väl är så numera att man kanske inte behöver hänga på varje ny modelluppgradering, men att det blir mer lagom att hoppa på varannan.
 
?

Att jämföra kameror från samma tillverkare och vad det gör för bilden är inte lätt. Det blir inte lättare av att det finns olika tillverkare och sensorstorlekar för att inte nämna alla olika objektiv. Men kanske förstorar jag det hela.
// Jörgen[/QUOTE]

Vi påverkas på olika vis av vad som skrivs om kamerorna, vi vet alltid vad vi behöver köpa och har behov av tror vi i alla fall att vi gör, men jag undrar hur det egentligen är med den saken. Det är inte många av oss som kan låna hem kameror och prova, man vill nog gärna läsa på lite grann, eller hoppas att Martin A. skriver något bra om den där modellen man är intresserad av, det är inte så lätt att välja kamera speciellt om man inte har mycket gott om pengar.
 
Jörgen, tänk så här: Du belyser en projektorduk på 3x2 meter med en projektor. Sedan, utan att byta objektiv, flytta projektorn eller zooma så byter du till en hälften så stor duk, dvs 2x1,5 meter. Du gick från 6 kvadratmeter till 3 kvadratmeter.

Hur mycket ljus träffas den mindre duken av jämfört med den större?

Samma sak händer när du använder samma kameraobjektiv först framför en sensor och sedan framför en annan, hälften så stor sensor. Du fångar in halva ljusmängden trots att du har samma exponering.

En mindre människa bränner sig alltså mindra av solen eftersom de har mindre hudarea? ;)

Tar man en bild med en mindre sensor och samma objektiv så flyttar man sig så att utsnittet blir detsamma. Då får man ju flytta den mindre duken också så att den får hela projiceringen på sig.
 
En mindre människa bränner sig alltså mindra av solen eftersom de har mindre hudarea? ;)

Tar man en bild med en mindre sensor och samma objektiv så flyttar man sig så att utsnittet blir detsamma. Då får man ju flytta den mindre duken också så att den får hela projiceringen på sig.

Kommer en solpanel på 1 kvm producera exakt lika mycket el som en solpanel på 2 kvm med samma konstruktion, när de monteras på samma plats?
 
Kommer en solpanel på 1 kvm producera exakt lika mycket el som en solpanel på 2 kvm med samma konstruktion, när de monteras på samma plats?

Per ytenhet ja. Totalt nej.
Så givet samma pixelantal så får varje pixel mer ljus med en större sensor. Alltså är det storleken på pixlarna som är relevant som jag ser det.
 
Jag brukar tänka såhär för att göra det enkelt:

Ta en bild med crop-cameran 7D Mark II som har 20,2MP och en pixelstorlek på 4,1µm.

Ta en bild med follformataren 5DsR som har 50,6MP och i princip samma pixelstorlek (4,14µm).
Ta upp bilden i datorn och beskär till samma utsnitt som 7D. Då har du "samma" resultat.

Så kan man fylla sökaren med motivet så har fullformat en fördel. Kan man inte det utan måste beskära i efterhand så tappar man fördelen.

Visserligen ger väl en fullformatare, givet samma pixelmängd, bättre omfång, men efter beskärning börjar man tappa detaljer/MP.

Eller?
 
En mindre människa bränner sig alltså mindra av solen eftersom de har mindre hudarea? ;)

Nej, för exponeringen, dvs intensiteten är densamma.

Men vem av de två träffas av flest fotoner?

Tar man en bild med en mindre sensor och samma objektiv så flyttar man sig så att utsnittet blir detsamma. Då får man ju flytta den mindre duken också så att den får hela projiceringen på sig.

Vilket inte var vad vi pratade om.
 
Per ytenhet ja. Totalt nej.
Så givet samma pixelantal så får varje pixel mer ljus med en större sensor. Alltså är det storleken på pixlarna som är relevant som jag ser det.

Då tänker du fel, så länge du inte skapar en bild av en enda pixel (vilket skulle bli en rätt trist bild) så är det alltid summan av de i bilden ingående pixlarna som är mest intressant.

Tänk så här: Det vi resonerar om är bilder och bildkvalitet. Inte pixlar och pixelkvalitet. En bild består av summan av sina pixlar, av det kan man dra slutsatsen att bildprestanda består av summan av pixlarnas prestanda. Vilket också innebär att betydelsen den enskilda pixels prestanda avtar när antalet ökar. Nu har faktiskt pixlarnas prestanda till råga på allt ökat, inte minskat trots att de krympt (dagens mindre pixlar har generellt bättre FWC än äldre större pixlar). Så vi har fått en dubbel effekt summan av pixlarna har dels växt för att vi har fler pixlar och dels för att vi har bättre pixlar.

Ser vi till prestanda på bildnivå så är de två saker som är viktigare än något annat: Den totala insamlingsytan (större yta samlar in mer information) och tekniknivån (hur effektivt vi tillgodogör oss det insamlade ljuset). Den enda mer påtagliga betydelsen av pixelstorlek är att den styr upplösningen, och där är ju sambandet enkelt: fler pixlar ger mer detaljteckning.
 
Angående liknelsen med bollregn och hinkar:
Nja. De är på rätt spår att brus märks mer ju svagare signal man hanterar, men av någon anledning blandar de in missförståndet att pixelstorlek (eller hinkstorlek i deras exempel) är en viktig faktor. En orsak till det missförståndet (som de är långt ifrån ensamma om) kan nog vara att man mentalt fastnar lite i liknelser som bollar och hinkar. Där känns det naturligt att tänka att ju större hinkarna är, ju mer rymmer de, och ju mer signal du samlar in, ju mindre märks bruset.
Liknelsens grundproblem är att de flesta nog tänker sig att hinkarna även minskar på höjden när de blir mindre (vilket skulle leda till att bas-ISO:t ökade med minskade pixelstorlekar vilket det ju inte gör).

Tänker vi oss istället hinkar som bara ändras ytmässigt men förblir lika höga fungerar liknelsen med fallande bollregn rätt bra (det kräver dock att de som använder liknelsen är mycket, mycket tydliga med att hinkarnas höjd är konstant så att ingen förleds att tro att hinkarna kan lagra åtta gånger så många bollar när insamlingsytan fyrdubblas).

De har rätt att mängden ljus man kan samla in i varje pixel spelar roll, men saken är att den kapaciteten hos pixlar (ofta kallat FWC, eller Full Well Capacity) faktiskt inte har så mycket med pixelns fysiska storlek att göra, det styrs mer av hur den byggts upp. Faktum är att man genom sensorutvecklingen minst lyckats bibehålla eller rent av oftast öka FWC när man gör nya sensorer, trots att man minskar pixelstorleken.
Du menar säkert rätt men jag är inte riktigt bekväm med hur du använder begreppet FWC. Som jag är invand så brukar FWC avse den enskilda pixelns förmåga att lagra registrerade fotoner (egentligen av fotonerna utslagna elektroner), du verkar dock med FWC här avse lagringsförmågan per sensorytenhet.

Varför jag reagerar är att om FWC i betydelsen lagringsförmåga per pixel vore oberoende av pixelstorleken (så kan man tyvärr misstolka vad du skrev) skulle det leda till att bas-ISO sjönk med minskande pixelstorlekar (det skulle i hinkliknelsen motsvara att hinkarna blev djupare och djupare ju mindre insamlingsyta de fick så att deras volym hölls konstant). Så är ju dock inte fallet utan tvärtom har bas-ISO stått och stampat på i stort sett samma fläck i decennier vid det här laget.

Om du däremot, vilket jag är övertygad om utifrån vad du skriver i övrigt, menar att lagringskapaciteten per sensorytenhet är i stort sett oberoende av pixelstorleken blir det hela rätt och förklarar varför bas-ISO inte påverkas nämnvärt av pixelstorleken.
 
Du menar säkert rätt men jag är inte riktigt bekväm med hur du använder begreppet FWC. Som jag är invand så brukar FWC avse den enskilda pixelns förmåga att lagra registrerade fotoner (egentligen av fotonerna utslagna elektroner), du verkar dock med FWC här avse lagringsförmågan per sensorytenhet.

Faktum är att jag verkligen syftar på hur mycket laddning man kan hålla i varje enskild pixel. Och jo, i en CMOS-sensor har den förmågan väldigt lite med pixels fysiska storlek att göra. Nu vet jag mindre om CCD-sensorer, där fanns tydligen en sådan relation, och det är nog bland annat därifrån kopplingen mellan FWC och storlek kommer. Men i en CMOS-sensor styrs FWC mer av hur utläsningslösningen från pixeln har utformats - något som ju stadigt blivit bättre senaste åren.

Det här har ju diskuterats flitigt senaste åren, i synnerhet åren efter D800 dök upp då ju som bekant pixeldebatten rasade som intensivast :) Här är ett av många bra inlägg i frågan skrivet av Bob Newman och där han i mina ögon uttrycker saken ganska tydligt:
https://www.dpreview.com/forums/post/55278918
Inlägget är långt och avhandlar ju även en hel del annat, men jag kan ju citera en central bit:

Full Well Capacity (really a misnomer these days, but we are stuck with it) has nothing whatsoever to do with the 'useful volume' of the pixel. This is an unfortunate misunderstanding caused by the use of the term 'well'. It isn't a spatial well, it was (in the case of the CCD) an electrical potential well. In the case of CMOS, the capacity of a pixel is determined by the readout electronics, and has nothing to do with pixel volume (except that the readout electronics will be designed to give a capacity appropriate for the amount of light the pixel has to collect at its 'base ISO'.

Det kanske förklarar bättre än vad jag gör hur det här hänger ihop :)
 
Faktum är att jag verkligen syftar på hur mycket laddning man kan hålla i varje enskild pixel. Och jo, i en CMOS-sensor har den förmågan väldigt lite med pixels fysiska storlek att göra.
Som jag uppfattar ditt påstående ovan kan stora pixlar klara av lika stora maximala ljusmängder som små, d v s att sensorer med mindre pixlar kan hantera markant större maximala ljusintensiteter.

Är det verkligen detta du påstår?

Om nej: Kan du peka på var någonstans i resonemanget jag missförstått dig?

Om ja: Eftersom sensorer med 5 µm pixlar kan användas på ISO 100 skulle då småsensorer med pixlar nedåt 1 µm rent tekniskt fungera nedåt ISO 4 så det är ju inga småskillnader det handlar om. Varför erbjuds då inte möjligheten att ställa in så här låga ISO-tal för kamerorna med dessa små pixlar (fördelen vore ju enorm, inte bara för oss konsumenter utan också marknadsföringsmässigt för tillverkarna, jättekliv uppåt i DxO:s ranking o d)?
 
Som jag uppfattar ditt påstående ovan kan stora pixlar klara av lika stora maximala ljusmängder som små, d v s att sensorer med mindre pixlar kan hantera markant större maximala ljusintensiteter.

Är det verkligen detta du påstår?

Nej, snarare att alla pixelstorleken i CMOS-sensorer faktiskt har väldigt lite med den saken att göra.

Om nej: Kan du peka på var någonstans i resonemanget jag missförstått dig?

Om ja: Eftersom sensorer med 5 µm pixlar kan användas på ISO 100 skulle då småsensorer med pixlar nedåt 1 µm rent tekniskt fungera nedåt ISO 4 så det är ju inga småskillnader det handlar om. Varför erbjuds då inte möjligheten att ställa in så här låga ISO-tal för kamerorna med dessa små pixlar (fördelen vore ju enorm, inte bara för oss konsumenter utan också marknadsföringsmässigt för tillverkarna, jättekliv uppåt i DxO:s ranking o d)?

Igen, så som jag förstår det så är verkligen inte storleken en faktor på det sättet som du beskriver. Möjligen funkar det så med CCD-teknik där ju - så vitt jag förstår - varje pixel mer liknar en slags kondensator som kan hålla de elektroner som "släpps loss" (eller vad man nu vill kalla det) när pixeln träffas av fotoner. Men jag vet i ärlighetens namn ganska lite om CCD, känns inte som det är en teknik man behöver fundera så mycket på numera :)

Däremot är det, igen enligt min förståelse av saken, så att kapaciteten att räkna fotoner i en CMOS-pixel nästan uteslutande handlar om tekniknivån, vilket gör att vi får ungefär samma FWC oavsett storlek. Eftersom vi har i alla fall snarlik tekniknivå i dagens sensorer, ganska oavsett pixelstorlek.

Att vi sällan har lägre iso än 100 (och i många fall fortfarande 200) handlar så vitt jag förstår om att när tekniken förfinats (och FWC växer) så väljer man normalt att utnyttja det för att få högre användbart maxiso snarare än lägre användbart basiso - vi har ju på gott och ont haft lite av en fixering vid höga maxiso. Jag tolkar alltså detta mer som en marknadsmässigt val än ett tekniskt, men där får jag erkänna att det är mer av en (hoppningsvis) begåvad gissning från min sida.
 
Har jag missat i tråden om det är med pixelbining, 4 pixlar som sitter tätt till sammans, som en enda stor och sensorn uppbyggd så hela vägen, när pixlarna blev fler och mindre så kom den lösningen, det slog mig bara helt plötsligt för det surrades mycket om den lösningen längre tillbaks i tiden.


För övrigt: några kamera modeller har väl möjlighet att välja in ISO 50, min gamla A77 har det läget, gav väl en aning högre DR värde just vid ISO 50, D810 har ISO 64 vilket verkade uppskattas bland flera testare.


//Bengt.
 
Har jag missat i tråden om det är med pixelbining, 4 pixlar som sitter tätt till sammans, som en enda stor och sensorn uppbyggd så hela vägen, när pixlarna blev fler och mindre så kom den lösningen, det slog mig bara helt plötsligt för det surrades mycket om den lösningen längre tillbaks i tiden.

Binning användes tidigt, Nikon D1 från 1999 hade en 10,8 megapixels CCD-sensor som binnades just 4:1 till 2,74 megapixel.

En svårighet med 4:1-binning (och alldeles i synnerhet 2:1-binning som en del funderat över) är färghanteringen, du får lätt lite problem att räkna på färgerna. Det skulle nog (lite beroende på hur färgfiltren utformas) fungera bättre med 9:1 (3x3) eller 16:1 (4x4). Och får vi sensorer med säg 100 eller 150 megapixel börjar nog sådant bli lite lockande.

Men framför allt kan man nog skapa nya semi-raw-format där du gör dekonvuleringen (räknar ut färgerna och tonkurvan) och sedan efter det räknar ned upplösningen. Mycket tyder på att du då som exempel skulle kunna ta bilddata från en 100 megapixels sensor och räkna ned det till en bild på 20 eller 25 megapixel och ända ha kvar kanske 90 % av detalj-, färg- och toninformationen. Som vår gamle bekanting Joakim B vid några tillfällen har uttryckt saken så är informationskvaliteten i varje pixel i dagens bildfiler inte speciellt hög. Vilket innebär att man kan räkna ned bildstorleken (och få en mycket mindre fil) utan att tappa speciellt mycket av informationen.

Över huvud taget kan det vara så att man framöver, lite liknande med vad man gjorde i gamla D1 (och D1x), släpper den hårda 1:1-kopplingen mellan pixlarna i sensorn och antalet pixlar i de bildfiler vi får ut. När vi så att säga har ett rejält överskott av sensorpixlar kan det vara mycket mer effektivt att producera bilder med färre, men mer informationstäta, pixlar.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar