Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

2 månader kvar till lanseringen av D4 och D400

Produkter
(logga in för att koppla)
Att binna på två är egentligen ingen storleksvinst (fyra gånger färre pixlar, tre gånger mer information pixel) - och ganska dåligt ur ett bildkvalitetsperspektiv. Det Canon gör är att via en del brusreduceringsalgoritmer köra en hel råkonvertering, skala ner bilden, och sedan spara resultatet utan gamma-, kurv- och färgkorrigering. Det enda du tjänar i efterhand är att du slipper interpolerings-omgången.

men om man gör denna 'förenklade råkonvertering', är det inte möjligt (eller 'mer praktiskt genomförbart') att ändå göra en vinst genom att välja en 'snål' representation av superpixlen?
Isf att köra RGB i 3x12 bits per superpixel (2x2 celler) eller vad du tänkte dig, kunde man kanske köra Lab med 12 + 2x8 bits, eller liknande?

då skulle vinsten kunna bli styvt hälften av datamängden jmf raw med 12 bitar/cell.
 
Thom Hogan pratar på, vad menar han? att totala signalnivån inte kan hållas lika hög som tidigare med fler pixlar, varför BSI med i diskussionen, BSI kan ha en positiv inverkan på betydligt mindre enskild pixelyta än den som finns i APS än så länge och detta enligt Eric Fossum.
Som tidigare hänger jag inte med vad Hogan vill säga, för några år sedan var 16 miljoner max enligt Hogan vad det gäller APS , angående diffraktion så erhåller man högre upplösning med en kamera med fler pixlar än med en med färre .
Har Hogan fastnat i sitt eget mantra angående upplösning /diffraktion??
 
men om man gör denna 'förenklade råkonvertering', är det inte möjligt (eller 'mer praktiskt genomförbart') att ändå göra en vinst genom att välja en 'snål' representation av superpixlen?
Isf att köra RGB i 3x12 bits per superpixel (2x2 celler) eller vad du tänkte dig, kunde man kanske köra Lab med 12 + 2x8 bits, eller liknande?

då skulle vinsten kunna bli styvt hälften av datamängden jmf raw med 12 bitar/cell.

vilken vinst skulle det vara förutom datamängden?
 
Det är ju två saker man vinner; dels blir råkonverteringen betydligt snabbare enbart pga ett starkt minskat antal operationer per pixel, dels datamängden.

Men, man förlorar faktiskt hög-ISO-prestanda...!

Att göra en hel interpolering, men med anpassade förutsättningar ger betydligt bättre signal/brus-förhållande. Den enda förändring man behöver göra är att att ställa om interpoleringen som - försöker - räkna ut vad de två saknade värdena i varje pixel ska vara från att försöka leta upp så mycket detaljering som möjligt (fylla varje pixel med information) till att redan från början räkna med att bilden ska skalas ner och då i stället titta på ett område i stället för en enskild pixel i fullformats-råfilen.

Det man förlorar på att överlåta vitbalanseringsberäkningarna åt kameran (vilket man ju gör om kamerakanalerna ska räknas om till Lab, eller kanske rimligare till Y'CbCr) är att man förlorar möjligheten att färgkorrigera för lysrörsljus och väldigt låga/höga ljustemperaturer. Förlusterna när man räknar "baklänges" igen är alldeles för stora för att det ska vara praktiskt genomförbart.
..........

Ljuseffektiviteten för hela sensorn (hur mycket signal får jag genom att belysa sensorn med "X" mängd ljusenergi) ökade ju faktiskt med mer än 50% mellan D300 och D7000. Samma sak igen är ganska orimligt att kräva, men en liten ökning borde vara möjlig.
 
men om man gör denna 'förenklade råkonvertering', är det inte möjligt (eller 'mer praktiskt genomförbart') att ändå göra en vinst genom att välja en 'snål' representation av superpixlen?
Isf att köra RGB i 3x12 bits per superpixel (2x2 celler) eller vad du tänkte dig, kunde man kanske köra Lab med 12 + 2x8 bits, eller liknande?

då skulle vinsten kunna bli styvt hälften av datamängden jmf raw med 12 bitar/cell.

Canons lösning för sRAW/mRAW går lite åt det hållet, istället för att skapa RGB pixlar har Canon valt en lösning där varje enskild pixel har två kanaler. Resterade färginformation hämtas från kringliggande pixlar. Fast Canon gör allt detta inte i RGB utan i Y Cb Cr läge. Detta sätt att reducera informationen råkar i praktiken vara snarlikt ett delsteg i jpeg-komprimeringsprocessen, varför vi kan sägas ha ett slags "förlustfritt" komprimerade jpeg format.

För den nyfikne finns en teknisk beskrivning här: http://lclevy.free.fr/cr2/#sraw
 
Senast ändrad:
Canons lösning för sRAW/mRAW går lite åt det hållet, istället för att skapa RGB pixlar har Canon valt en lösning där varje enskild pixel har två kanaler. Resterade färginformation hämtas från kringliggande pixlar. Fast Canon gör allt detta inte i RGB utan i Y Cb Cr läge. Detta sätt att reducera informationen råkar i praktiken vara snarlikt ett delsteg i jpeg-komprimeringsprocessen, varför vi kan sägas ha ett slags "förlustfritt" komprimerade jpeg format.

För den nyfikne finns en teknisk beskrivning här: http://lclevy.free.fr/cr2/#sraw

Det är ju två saker vi talar om:

1) Möjligheten att få mindre rawfiler tex 12 MP eller 6 MP med samma kvalitet som den fullstora 24 MP-rawfilen,

2) Utrymmet för förbättrat SNR och DR på högre ISO-tal genom att binna pixlar och därmed minska MP-talet direkt i rawfilen.

Canons sRAW är alternativ 1) medan ingen DSLR idag gör binning i en exponering med förbättrad bildkvalitet på högre ISO-tal.

Frågan är hur mycket den relativa vinsten är med binning i kameran jämfört med nedskalning i efterhand eller image stacking tex i Photoshop eller Photoacute.

Fördelen med multishottekniken är ju att bildstorleken kan upprätthållas och upplösningen ökar medan pixelbinning innebär att bildstorleken minskar.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar