ANNONS
Annons

Hur mäter man signal/brusförhållande?

Produkter
(logga in för att koppla)

perstromgren

Aktiv medlem
Den långa brustråden fick mig att fundera på varför man inte mäter signal/brusförhållande i fotosammanhang. Jag diskuterar ofta hifi-utrustning och i den branschen har signal/brusmätningar använts i alla tider som ett objektivt sätt att ta reda på om en produkt har tillräckligt lågt brusgolv för den tilltänkta applikationen.

Varför gör man inte likadant i fotosammanhang? Är det väldigt besvärligt av någon anledning? Brustråden hade ju varit över på en sida eller två, om man hade kunnat se s/n-mätningar för två olika sensorer med inställningar som tillfredsställt alla.

/ Ingenjörn
 
Signalerna är lättare att mäta när det gäller ljud. Du skickar en en bra signal och får ut en mindre bra. Skillnaden är det man mäter eller???

I bilderna så är det ju en salig blandning på sensorn. Man skulle säkert kunna mäta (och har säkert mätt) hur bra elektroniken _efter_ sensorn behandlar sakerna.

Problemet är således att du inte får in en perfekt bild (signal) till sensorn. Då hade vi aldrig haft något brus alls om jag förstår det hela rätt.

Jag tror det är så här.
 
Man kan man inte mäta hur mycket brus som finns i bilden när det inte borde finnas något alls, dvs med objektivlocket på? Om man jämför det med klippnivå (dvs alla bitar påslgna) borde det ge max signal brusförhållande.

Eller?

Per.
 
Det är ju lite svårt att mäta bruset på samma sätt som när man mäter bruset i elektronik med en brusfaktormeter där man använder en noggrant kalibrerad bruskälla som kopplas till ingången. Då mäter man ju det totala bruset och genom att brusfaktormetern subtraherar bruset från bruskällan så kan man se det mätta bruset.

Men varför skulle det inte vara möjligt att mäta brusfaktorn för en kamerasensor? Mät bruset när sensorn inte utsätts för ljus och jämför det med signalen då sensorn utsätts för ljus. Differensen blir då S/N (signal-brus-förhållandet).
 
Problemet är väl att man inte kan mäta brus i en enda pixel, utan man måste titta på flera stycken samtidigt. Helst hela bilden. Hos en ljudvåg så vet man ju exakt vad det är man matar in, nämligen oftast en ren sinusvåg. Och ut kommer den likadan, fast med ett visst brus pålagt. I bilden däremot så finns två ytterligare dimensioner att ta hänsyn till, samt även färg.

Är det detaljerna som är intressant eller det totala dynamiska omfånget? Är det färgbruset eller luminansbruset som är viktigast? Hur ska man jämföra två sensorer med olika stora pixlar? Hur ska man jämföra två olika stora sensorer? Hur ska man lyckas fotografera en gråkil utan att objektivets vinjettering besudlar resultatet?

Jag tror faktiskt att det är enklast att bara fotografera samma motiv rakt av med olika kameror och kolla hur bilderna blir. Man skulle kunna dra upp skuggorna rejält också för att kolla hur "botten" av bilden ser ut. Men att införa någon slags enhetlig brusjämförelsestandard tror jag inte fungerar. Vilket program ska man använda till exempel? Det gör ju en redig skillnad.
 
Förutom de rent tekniska svårigheterna ser ju olika brus olika illa ut även om det kanske är lika mycket rent objektivt.
 
Makten skrev:
Problemet är väl att man inte kan mäta brus i en enda pixel, utan man måste titta på flera stycken samtidigt. Helst hela bilden. Hos en ljudvåg så vet man ju exakt vad det är man matar in, nämligen oftast en ren sinusvåg. Och ut kommer den likadan, fast med ett visst brus pålagt. I bilden däremot så finns två ytterligare dimensioner att ta hänsyn till, samt även färg.

I ljudfallet brukar man inte mäta brus tillagt på en signal, utan det residualbrus som finns utan insignal, dvs med ingången kortsluten. Där har man också tiden att ta hänsyn till, vilken vi inte har i bilden, så det går på ett ut. I bildfallet får vi mäta över hela bilden och medelvärdesbilda på vanligt sätt, lämpligen med RMS (Root Mean Square), med "ingången kortsluten", dvs objektivlocket på.

Det måste vara något annat, jag förstår inte!

Per.
 
lumor_ skrev:
Förutom de rent tekniska svårigheterna ser ju olika brus olika illa ut även om det kanske är lika mycket rent objektivt.

Det är sant, men i alla andra signalfall jag träffat på har det inte hindrat, utan man har mätt flera egenskaper hos bruset (t.ex. frekvensspektra) och korrelerat med hur det uppfattas.

Per.
 
perstromgren skrev:
I ljudfallet brukar man inte mäta brus tillagt på en signal, utan det residualbrus som finns utan insignal, dvs med ingången kortsluten.
Ah, det har du rätt i! Det motsvarar väl att sätta locket på kameran och göra en exponering antar jag. Men det ger nog inte hela sanningen eftersom det är flera olika bruskällor som samverkar. Det termiska bruset från sensorns uppvärming beror ju på slutartiden och kamerans temperatur till exempel. Sen har vi ju alltid en gammakorrektion vid uppräkningen eftersom en "linjär" bild inte alls ser ut som våra ögon uppfattar den. Och vad är "normal" gamma? Finns det ens?
Om jag inte är helt ute och cyklar så är ljuset i sig själv "brusigt" om vi har tillräckligt lite, det vill säga få fotoner. Någonstans i tok-ISO-träsket så borde alltså ett starkt brus uppstå helt utan att det beror på sensorn eller elektroniken, nämligen när antalet fotoner är så få att de inte räcker för att ge en vettig bild. Var går den gränsen? Hur ska vi skilja detta från sensorbruset? Är det ens intressant vid så låga ISO som 6400-25600?
 
Det fotoniska bruset är även vid rätt låga ISO-tal/sensoryta en mycket betydelsefull faktor i sammanhanget. Om t ex en hyggligt stor pixel kan lagra 100 000 elektroner (i högdagrarna vid t ex ISO 100) och vi behöver ett omfång på 10 steg så är vi nere i bara 100 elektroner i lågdagrarna, d v s en statistisk fluktuation i storleksordningen 10 % på pixelnivå. Ställer vi nu in sensorn i fråga på ISO 1000 får vi ett brus på 1 % redan i högdagrarna medan lågdagrarna i det här fallet bara skulle byggas upp av ett tiotal fotoner. Vi kommer alltså snabbt i nivå med det brus som orsakas av olika typer av tekniska brister.

Hur vi sedan upplever detta beror på förstoringsgrader och betraktningsavstånd. Det är ju intrycket på näthinnan som har betydelse och under ”njutbara” förhållanden ser vi inte enskilda pixlar utan den samlade effekten av många sådana. Om t ex ögat är som ”bruskänsligast” vid ytor motsvarande 100 sådana pixlar som ovan är vi alltså nere i en statistisk fluktuation i de mörkaste partierna på 1 % vid ISO 100 (istället för de 10 % vi fick i en enskild pixel). Halverar vi nu betraktningsavståndet (eller gör bilden dubbelt så stor) ökar det till 2 % o.s.v.
 
Pupillen skrev:
Det fotoniska bruset är även vid rätt låga ISO-tal/sensoryta en mycket betydelsefull faktor i sammanhanget. Om t ex en hyggligt stor pixel kan lagra 100 000 elektroner (i högdagrarna vid t ex ISO 100) och vi behöver ett omfång på 10 steg så är vi nere i bara 100 elektroner i lågdagrarna, d v s en statistisk fluktuation i storleksordningen 10 % på pixelnivå. Ställer vi nu in sensorn i fråga på ISO 1000 får vi ett brus på 1 % redan i högdagrarna medan lågdagrarna i det här fallet bara skulle byggas upp av ett tiotal fotoner. Vi kommer alltså snabbt i nivå med det brus som orsakas av olika typer av tekniska brister.
Det här är ju väldigt intressant, för i så fall så borde vi redan nu vara i närheten av nån slags "tak" för när sensorns egen brusighet inte längre är relevant, och att man då inte kan komma längre utan att göra större sensorer. I alla fall om man tittar på hög-ISO-bilder från till exempel Nikon D3, som ju är löjligt lågbrusiga. Nu vet jag inte vilken "fill factor" den sensorn har, men den torde väl vara avgörande för bruset? Om man rent teoretiskt har 100% fill factor och väldigt lågbrusig elektronik, är det inte mest fotonbruset som inverkar, per pixel sett?

Bildförstärkare har ju länge funnits som ger en bild av nästan ingenting, men då är ju också upplösningen väldigt låg och bruset mycket högt. Jag har ingen aning om hur en sån funkar visserligen, men det borde vara intressant i sammanhanget.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar