Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

En gång till: brus och pixelstorlek

Produkter
(logga in för att koppla)

horvendile

Aktiv medlem
Nu är det fredag och timmen efter lunch! Ska vi inte dra det här med brus och pixelstorlekar ett varv till?
Jaaa det gör vi!

Fast jag hoppar över de första stegen och börjar här:

Jag förenklar till att vi har två sorters brus att räkna med: shot noise (Vad det nu heter på svenska? Google föreslår hagelbrus, jag kör på det.) och utläsningsbrus. Ja det finns flera sorters brus, men är det en okej förenkling att titta på bara de två sorterna? Jag skulle tro det men är inte helt säker.

Jag har också fått för mig att utläsningsbrus är något man får per pixel, inte särskilt beroende av enskild pixels yta. Om det är fel så faller resten av inlägget, så säg till om det är fel!

Vidare är jag helt med på att när det gäller hagelbrus så är det i dag den totala sensorytan som avgör bildens brus.
MEN - och det är egentligen här jag börjar - det förutsätter att hagelbruset dominerar, dvs att
hagelbruset >> utlästningsbruset
Och det är det nog oftast med moderna sensorer och ljus som bättre beskrivs som ljus än som mörker.

Men när man har riktigt lite ljus, bara enstaka fotoner per pixel, då kommer utläsningsbruset vara i samma storleksordning som hagelbruset. Och då kommer pixelstorleken med ens vara viktig igen, för med större pixlar får jag bättre hagel-SNR utan att öka utläsningsbruset.

Detta skulle förklara varför man i verkliga hög-ISO-kameror fortfarande har stora pixlar relativt, eh, andra kameror.

Tänker jag rätt?
 
"Vidare är jag helt med på att när det gäller hagelbrus så är det i dag den totala sensorytan som avgör bildens brus."

Viktigt är att det är den effektiva sensorytan som är viktig, inte antalet kvadratmm. som sensorn tar upp. Misstänker att detta en del av skälet till att sensorer med hög pixeldensitet ibland upplevts som brusigare, om sensorn är uppbyggt så att "väggarna" mellan pixlarna tar en stor del av upptagningsytan så stämmer naturligtvis påståendet att fler pixlar ger mer brus.
 
Jag har också fått för mig att utläsningsbrus är något man får per pixel, inte särskilt beroende av enskild pixels yta. Om det är fel så faller resten av inlägget, så säg till om det är fel!

Det är både rätt och fel eftersom svaret är Mjao, det beror lite av bägge, och hur den saken fördelar sig beror i sin tur på flera saker ...

Detta skulle förklara varför man i verkliga hög-ISO-kameror fortfarande har stora pixlar relativt, eh, andra kameror.

Tänker jag rätt?

Igen är svaret mjao, lite rätt, lite fel. Och även här faller det sedan isär i många olika faktorer som i sin tur kan ha både positiva och negativa effekter på bruset vilket gör saken lite klurig att reda ut. Det blir en väldig massa "om si" eller "om så" hur man än resonerar. Det man nog generellt kan säga är att vill du bygga en sensor som dels är stor (typ småbild), snabb (typ ihållande klarar 10-12-14 bilder/sek eller 4k-video) så är det enklare och mer kostnadseffektivt att jobba med färre pixlar än fler. Inte så mycket på grund av problem med pixlarna i sig själva som på grund av pipelinen efter - transportvägen för av analog signal mellan pixel och a/d-omvandling och själva a/d-omvandlingen (som bägge är källor till brus).

Lägg till det den högst verkliga designfaktorn att man ofta helt enkelt inte är så motiverad att ha mycket pixlar i just snabba kameror. Typexemplet är ju pressfotokameror (som ju har relativt låga megapixelantal), det är kameror för en målgrupp som dels oftast inte behöver så hög upplösning, dels vill ha ett så snabbt och strömlinjeformat arbetsflöde som möjligt - bilder skall till exempel smidigt kunna skickas trådlöst från kameran, man skall snabbt kunna sålla stora material och snabbt kunna göra den efterbearbetning som krävs. Eller exemplet Sony A7s där du byggt en kamera helt runt att den skall videofilma bra i uhd (4k), och låtit det styra hur många pixlar den fått.

- - -

Totalt sett är det fortfarande så att man som en generell förenkling kan säga att brus har väldigt lite med pixelstorlek att göra. Det påverkar, men andra saker påverkar så mycket mer att det oftast i praktiken blir rätt ointressant. Det stora problemet när man skall reda ut relationen mellan brus och pixelstorlek är att det finns faktorer som både ökar och minskar brus med både större och mindre pixlar, och exakt hur det fördelar sig där beror mer av andra saker än storleken i sig. Som just utläsningshastighet.

Tillägg: Man skulle med en förenkling kunna uttrycka det jag försöker säga så här: Bruset påverkas nog mer av antalet megapixel per sekund (som kameran måste hantera) än av antalet megapixel per bildruta.
 
Jag vet inte om jag blev så värst mycket klokare... men tack ändå!

När jag var i sluttampen av KTH tog jag en kurs i fiberoptisk kommunikation tillsammans med Elektro. Ganska mycket i den kursen handlade om brus. Elektro-folket var vana vid att hålla på med brus; jag var det inte. Det blev rätt svettigt.
Brus i kamera är nog inte exakt samma sorts brus som i ett fiberoptiskt system, fast antagligen liknande. Jag kan tänka mig att det skulle bli ungefär lika svettigt om jag verkligen försökte dyka ned i det den här gången. Fast ännu mer, eftersom KTH börjar bli länge sedan nu.
 
Jag vet inte om jag blev så värst mycket klokare... men tack ändå!

Brus i kamera är nog inte exakt samma sorts brus som i ett fiberoptiskt system, fast antagligen liknande.

En del av det är nog samma :) Det finns olika sätt att se på och definiera brus, men utgår man från hur de uppstår finns det ett antal olika sorters brus i en kamera, de flesta av dem uppstår i och efter sensorn och de jobbar man ju med att minimera. En annan sorts brus handlar ju helt enkelt om slumpmässiga fenomen i det infallande ljuset och det enklaste sättet att minska följderna av det är ju tvärtom vad många tänker sig - öka upplösningen :)

Men för att göra en grov förenkling kan du börja med att tänka på de två extremfallen: Extremt stora eller extremt små pixlar. Gör du helt enorma pixlar (typ att du har en enda eller bara en handfull pixlar i en sensor) får du bra informationskvalitet per pixel, men det låga antalet gör att den totala bildkvaliteten (summan av pixlarna) blir låg. Det andra extremfallet är att ha ofattbart många och därmed ofattbart små pixlar. Då får vi problem för att de enskilda pixlarna är så små att så många av dem får så låg informationskvalitet att den totala informationsmängden också blir dålig.

Dagens systemkamerasensorer är inte nära någon av de här två extremlägena. Om något så var vi nära det första problemet (för stora pixlar) på den tiden sensorer hade en megapixel eller så. Skall vi börja få allvarliga problem i andra änden i skalan måste vi troligen upp i typ gigapixel per sensor eller mer. Så länge vi rör oss i intervallet 5 - 200 megapixel (ett grovt intervall jag bara högg till med) spelar pixelstorleken för det mesta en ganska liten roll för bruset. Att göra pixlar större eller mindre ger både för- och nackdelar och hittills har det varit så att vi faktiskt vunnit mer än vi förlorat på att öka antalet och minska storleken. Någonstans tar det slut, men så vitt jag förstår är det en bra bit bort ännu. Kom ihåg att om du tar pixelstorleken i moderna mobiltelefoner eller kompaktkameror och kör samma pixlar i en småbildssensor (full frame) så skulle du få sensorer med 500 till 1000 megapixel eller så. Och de pixlarna funkar rätt bra :)

Så varför växer då megapixelantalet så infernaliskt långsamt (jo, det gör det) om det nu inte är bildmässigt problematiskt med små pixlar? Mest av kostnadsskäl, det blir groteskt dyrt att bygga så tätpackade sensorer i stora storlekar. Och groteskt dyrt att bygga infrastrukturen omkring dem (a/d-omvandling, bildprocessor osv) som tar hand om alla data - i alla fall om vi vill ha någon vettig hastighet. Och skulle vi bygga säg en småbilds (full frame) gigapixelsensor i dag skulle den dras med en massa svåra följdproblem som enorm värmeutveckling i själva sensorn med någon vettig utläsningshastighet, och värme ger i sig ger brus, plus att det skulle tömma batteriet efter några få bilder. Det finns rejält högupplösta sensorer redan idag, men de kräver kylning och en hel annan typ av strömförsörjning. Och utöver att själva utläsningen är effektförbrukande skulle du stressa a/d-omvandlingen vilket i sig är problem, eftersom det enkelt uttryckt är så att a/d-omvandlare genererar mer brus ju hårdare de jobbar - det är därför det är så brusmässigt lönsamt att krångla till det med tusentals små a/d-omvandlare som var och en jobbar med mindre datamängder (det är ju bland annat det här Sony nått sådana framgångar med).

Plus det jag var inne på i mitt förra inlägg: för vissa användningsområden vinner man så pass lite (fotografiskt) på mer upplösning att det är bättre att lägga krutet på saker som hög utläsningshastighet. Ta Nikon D5 som just presenterades med 20 megapixel. Nikon hade sannolikt kunnat bygga den med det dubbla, 40 megapixel och förmodligen mer eller mindre identiska brusprestanda på höga iso. Men vad hade de fått ut av det? Tja, de hade då haft en presskamera som i absolut ideala förhållanden kanske ger kanske 20-25% bättre detaljupplösning på basiso. Men på allt över iso 400 eller i bästa fall 800 får du ingen ökad upplösning alls, där är det bruset som sätter gränsen, inte antalet pixlar. Och du skulle tvingas välja mellan drastiskt mycket färre bilder per batteri eller en rejält sänkt serietagningshastighet plus att kameran blivit mycket dyrare att bygga. Det vore bara en feloptimering. Det är sådant här som gör att presskameror har jämförelsevis få och stora pixlar, det har ganska lite (om något alls) med brus att göra.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar