Annons

Många (flera) pixlar inte alltid bara onödigt

Produkter
(logga in för att koppla)
Det var kanske ett lite olyckligt exempel som DxO valt. Man kan nog få intrycket att det är nedsamplingen som ger det slutliga bättre signalbrusförhållandet när det i själva verket är så att den större sensorn redan har insamlat dubbelt så mycket signal när bilden togs.

Vid olika sensorstorlekar ja.
Om olika upplösning för skriver dom så här:

"As can be seen, high-resolution sensors will gain more SNR, DR, TR and CS when reduced to a lower reference resolution. For DxOMark Sensor, we chose a reference resolution equal to 8 Megapixels, which is a bit less than a 12" x 8" print with a 300dpi printer. However, any other resolution can be chosen, as doing so only shifts the normalized values by a constant (because the reference resolution appears only in a logarithm in the formulas above).
What should be remembered is that doubling the resolution adds:

  • 3dB to the normalized SNR
  • 0.5 bit to the normalized DR
  • 0.5 bit to the normalized TR
  • 1.5 bit to the normalized CS."
http://www.dxomark.com/index.php/eng/DxOMark-Sensor/Data-normalization

Och om man jämför upplösningen mellan t.ex D3 och A900 så har A900 bara ca 41% högre upplösning. Roten ur (24Mpix/12Mpix) = roten ur 2 ~ 1,41.
 
Okej, Leif. Nu fattar jag det här precis. Vill dock understryka ännu en gång vad jag skrev tidigare ang det mänskliga ögat vs mätapparatur. Den desorienterade Anders, som trots att han erkänt att han är skåning, har också påpekat det.

Människan är ju så skapt att det som inte kan göras synbart finns inte( dock inte inom religionen). Jo, det finns ett undantag till: Anders såg inte sjöbodarna idag trots att de existerar. Hans GPS= Galet Pixelerat Seende.

Lennart
 
Dina orienteringar påminner om mina från skoltiden...

Enda funderingen jag har om DxOMarks tester, som cihpdesignerns uträkningar kommer från, är utskriftstorleken A4 dom använder som referens. Det innebär att allt över 8 Mpix skalas ner och man kastar bort information från kameror med högre pixeltal. Det skulle vara intressant att se motsvarande resultat från A2-utskrifter för att se om en t.ex. kraftig beskärning ger en större skillnad.


Inget kastas bort, det integreras i den nerskalade bilden. Du blandar ihop skalning med beskärning.
 
Inget kastas bort, det integreras i den nerskalade bilden. Du blandar ihop skalning med beskärning.

Den ursprungliga informationen kommer ju inte tillbaka om du sen skalar upp bilden igen...

Sen skulle de va intressant att se vad som händer om man skalar upp olika upplösningar från samma sensorstorlek till en utskriftstorlek som ingen dslr klarar i 300 ppi idag, t.ex. A2. Jag tror i.o.f.s att man kan räkna ut de efter de formler som finns på DxoMarks sidor.
 
Vid olika sensorstorlekar ja.
Om olika upplösning för skriver dom så här:

"As can be seen, high-resolution sensors will gain more SNR, DR, TR and CS when reduced to a lower reference resolution. For DxOMark Sensor, we chose a reference resolution equal to 8 Megapixels, which is a bit less than a 12" x 8" print with a 300dpi printer. However, any other resolution can be chosen, as doing so only shifts the normalized values by a constant (because the reference resolution appears only in a logarithm in the formulas above).
What should be remembered is that doubling the resolution adds:

  • 3dB to the normalized SNR
  • 0.5 bit to the normalized DR
  • 0.5 bit to the normalized TR
  • 1.5 bit to the normalized CS."
http://www.dxomark.com/index.php/eng/DxOMark-Sensor/Data-normalization

Och om man jämför upplösningen mellan t.ex D3 och A900 så har A900 bara ca 41% högre upplösning. Roten ur (24Mpix/12Mpix) = roten ur 2 ~ 1,41.


Men det betyder att hela sensorns (bildens) signalbrusförhållande hålls konstant vid en nedskalning.

Per pixel ökar dock singalbrusförhållandet men det påverkar ju inte *bilden* på så sätt att fler mindre pixlar (med samma totalyta) skulle ge *bättre* resultat än färre större.
 
Okej, Leif. Nu fattar jag det här precis. Vill dock understryka ännu en gång vad jag skrev tidigare ang det mänskliga ögat vs mätapparatur. Den desorienterade Anders, som trots att han erkänt att han är skåning, har också påpekat det.

Människan är ju så skapt att det som inte kan göras synbart finns inte( dock inte inom religionen). Jo, det finns ett undantag till: Anders såg inte sjöbodarna idag trots att de existerar. Hans GPS= Galet Pixelerat Seende.

Lennart

Aha...säger jag fortfarande väldigt ofta och kommer nog att fortsätta med de hela livet, även du hoppas jag.

Om ögat kan man väl säga att på ett betraktningsavstånd på 80m ger 1 ppi jättebra resultat och då räcker en 8Mpix-bild till en 80m bred bild i runda slängar.
- Oj! Vilken fin pippi där i hörnet. Kom så går vi närmare och tittar...
En typsik beskärning skulle jag då vilja kalla det :)

För vissa, ingen nämnd ingen glömd, är det tydligen ingen idé att ha 11 GPS och tro att man ser/hittar mindre galet...
 
Men det betyder att hela sensorns (bildens) signalbrusförhållande hålls konstant vid en nedskalning.

Per pixel ökar dock singalbrusförhållandet men det påverkar ju inte *bilden* på så sätt att fler mindre pixlar (med samma totalyta) skulle ge *bättre* resultat än färre större.

Jag hänger nog inte riktigt med i dina tankar här...

Jag fattar de som i första delen pratar dom om skalning av bilder.

Och i punktlistan pratar dom om fler pixlar på samma sensor, t.ex. D3 vs A900 även om de inte är den dubbla upplösningen som skiljer mellan dessa två. Dubbla upplösningen upp från D3 innebär ju 48 Mpix. (2^2 x 12).

Rätta mej gärna om jag tänker fel.
 
Jag hänger nog inte riktigt med i dina tankar här...

Jag fattar de som i första delen pratar dom om skalning av bilder.

Och i punktlistan pratar dom om fler pixlar på samma sensor, t.ex. D3 vs A900 även om de inte är den dubbla upplösningen som skiljer mellan dessa två. Dubbla upplösningen upp från D3 innebär ju 48 Mpix. (2^2 x 12).

Rätta mej gärna om jag tänker fel.

Jag tror de uttrycker sig lite slarvigt och menar "viewed per pixel"

I det här exemplet är det två lika stora sensorer. Den ena har fler men mindre pixlar som var och en har 4 ggr sämre SNR. På bild eller sensor nivå är dock SNR lika mella sensorerna. Efter nedskalning förbättras SNR med 6 dB för den lilla sensorn (på pixelnivå) vilket ger ett slutresultat med två bilder med samma MP och samma SNR.

http://www.dxomark.com/index.php/eng/Insights/More-pixels-offsets-noise!/Modeling-small-pixels
 
Jag tror de uttrycker sig lite slarvigt och menar "viewed per pixel"

I det här exemplet är det två lika stora sensorer. Den ena har fler men mindre pixlar som var och en har 4 ggr sämre SNR. På bild eller sensor nivå är dock SNR lika mella sensorerna. Efter nedskalning förbättras SNR med 6 dB för den lilla sensorn (på pixelnivå) vilket ger ett slutresultat med två bilder med samma MP och samma SNR.

http://www.dxomark.com/index.php/eng/Insights/More-pixels-offsets-noise!/Modeling-small-pixels

Ett skriv fel? Eller varifrån kom den "lilla" sensorn?

Edit: Jag ska läsa vad dom skriver i lugn o ro ikväll för just nu snurrar det mest som en vilsen gps-användare
 
Den ursprungliga informationen kommer ju inte tillbaka om du sen skalar upp bilden igen...

Har fastnat i det här tänkandet oxå. Emda möjligheten att behålla all info måste bli en "falsk" skalning nedåt. Typ 450 istället för 300 dpi och spara i exv .dng?

Ska syssla med bokföring en stund vilket garanterat ger hjärnsmälta.
Notera f ö att en viss GPS-innehavare inte hittat tillbaks till tråden på en bra stund.

Lennart
 
Den ursprungliga informationen kommer ju inte tillbaka om du sen skalar upp bilden igen...

Sen skulle de va intressant att se vad som händer om man skalar upp olika upplösningar från samma sensorstorlek till en utskriftstorlek som ingen dslr klarar i 300 ppi idag, t.ex. A2. Jag tror i.o.f.s att man kan räkna ut de efter de formler som finns på DxoMarks sidor.


Nu blander du in ett till steg. men du förstår inte vad nerskalning gör jmf. med beskärning.

Mycket förenklat kan man beskriva nerskalning som ett slagsmedelvärde mellan två olika pixlar, eller fler. Sedan kan olika viktningar göras. Alltså slängs inte information , den används.

Upp uppskalning extrapoleras data fram ur befintlig, och desto bättre ursprungsdata desto bättre slutdata.
 
Nu blander du in ett till steg. men du förstår inte vad nerskalning gör jmf. med beskärning.

Mycket förenklat kan man beskriva nerskalning som ett slagsmedelvärde mellan två olika pixlar, eller fler. Sedan kan olika viktningar göras. Alltså slängs inte information , den används.

Upp uppskalning extrapoleras data fram ur befintlig, och desto bättre ursprungsdata desto bättre slutdata.

Javisst är det så och jag har inte påstått nåt annat heller...
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar