** Idag gör vi arbeten på vårt system, kortare störningar och nedtid kan förekomma. **

Annons

Sänk från 18MP till 10MP och vinn mer skärpa!!

Produkter
(logga in för att koppla)
Just nu är min uppfattning:

Man förlorar egentligen ingenting på att fota 18 MP då man kan få skarpa bilder om man skalar ner bilderna och behandla rätt med skärpa. Dessutom får man bättre bilder på 18MP än andra kamerahus som interpolerar upp till 18MP.

det är bara att se efter vilket resultat man får, jämför en d3x fil nerräknad till D3 filstorlek eller en 5dmk2 nerräknad till 5d.I båda fallen kan man se finare detaljer från D3x, 5dmk2 om nerskalningen/skärpning är rätt gjord.

att använda sRaw och de nackdelar det medför kan man läsa här
http://photography-on-the.net/forum/showthread.php?t=730030
 
Själv tycker jag då att det är lika bra att använda 18MP, eftersom vinsten i hanteringshastighet/arkivstorlek är så pass liten.

En liten vinst kan vara ack så betydande i vissa pressade lägen. Den tiden jag förlorar med att köra sRAW istället för jpg vid inläsningen vinner jag tillbaka med en snabbare justering av bilderna. RAW blir alltid mer tidskrävande än sRAW. Om bildkvaliten räcker med JPG så räcker den med sRAW.
 
Men alltså, nu börjar det bli lite rörigt och krångligt.

Om jag fattar Ken rätt så menar han att tillverkarna ljuger om antalet pixlar i en sensor.
Sensorn i en Canon 7D innehåller 18 miljoner pixlar. Nej säger Ken, den innehåller bara 4,5 miljoner pixlar. Pixlar är färgblinda, så det sitter filter framför varje pixel och filtrerar ljuset. Två gröna, ett blått och ett rött. Det går alltså åt fyra pixlar för att räkna fram färgen på var och en. Denna framräkning av färger sker genom Bayerinterpolation.

Han menar då att om man tar en 18MP 7D och tar en bild i 4,5MP, alltså läge S (smal) direkt i kameran så slipper kameran interpolera för att få fram färgerna. Detta ska då ge skarpare bilder.

Det handlar alltså inte om att man i efterhand ska skala bilder upp eller ner, utan jobbet ska göras direkt i kameran.
Om detta stämmer har jag ingen aning om. Men Mikael om du har en 7D, kan du inte ta två bilder på samma motiv, en 18MP och en 4,5MP så vi kan jämföra.

Att tillverkarna ljuger om antalet pixlar håller jag dock inte med om.

Vad säger ni är det så här Ken menar? Och framförallt finns det någon sanning i att bilden blir skarpare?
 
Men alltså, nu börjar det bli lite rörigt och krångligt.

Om jag fattar Ken rätt så menar han att tillverkarna ljuger om antalet pixlar i en sensor.

Det är snarare den gode Ken som uttrycker sig medvetet oklart eftersom han vet att sådana yttranden kniper fina populistpoäng. Ken älskar uppmärksamhet.

Sensorn i en Canon 7D innehåller 18 miljoner pixlar. Nej säger Ken, den innehåller bara 4,5 miljoner pixlar. Pixlar är färgblinda, så det sitter filter framför varje pixel och filtrerar ljuset. Två gröna, ett blått och ett rött. Det går alltså åt fyra pixlar för att räkna fram färgen på var och en. Denna framräkning av färger sker genom Bayerinterpolation.

Joakim och andra kunniga ryser antagligen över mina förenklingar och kanske över terminologin, men jag skulle uttrycka saken så här:

Det är fortfarande 18 miljoner pixlar, däremot är färginformationen interpolerad. Bayer-interpolation handlar just om att få fram färger. Nu leder en sådan färginterpolation till att man tappar en del information luminansupplösning, eller detaljupplösning om man så vill. Om vi struntade i att bayer-interpolera skulle vi alltså få en svartvit bild med bättre detaljupplösning. Men den praktiska skillnaden blir faktiskt överraskande liten - bayer-interpolation fungerar faktiskt väldigt bra (kan vara ett skäl att den används av så många :)

Han menar då att om man tar en 18MP 7D och tar en bild i 4,5MP, alltså läge S (smal) direkt i kameran så slipper kameran interpolera för att få fram färgerna. Detta ska då ge skarpare bilder.

Utan att veta exakt hur Canon gör sina nedskalade råfiler så skulle jag hävda att våre käre Ken yrar rejält i nattmössan där. Det är fortfarande information från 18 miljoner pixlar, med färgfiler och allt, som samlas in. Sedan interpoleras det antagligen på ett lite annat sätt, men det är fortfarande en interpolering det handlar om.

Sedan kan detta i många situationer, beroende på hur stort bilden presenteras, ge ett bättre skärpeintryck. Kom ihåg att upplevd skärpa inte är något absolut och enkelt mätbart, mer en ganska subjektiv upplevelse som varierar med presentationsstorleken (utskrift, skärm osv), med betraktningsavståndet, med hur bra syn man har (vi är alla olika och en del mer olika än andra) och hur motivet är beskaffat (dess ytstruktur, färger, dess avstånd från en bakgrund osv, osv).

Eller annorlunda uttryckt, som Joakim skrev:

"Man FÖRLORAR aldrig någonting på att fota i fullskala (18MP), men det kan i vissa lägen för vissa användare kanske inte finnas någon bildmässig VINST med att göra det. "

Det handlar alltså inte om att man i efterhand ska skala bilder upp eller ner, utan jobbet ska göras direkt i kameran. Om detta stämmer har jag ingen aning om. Men Mikael om du har en 7D, kan du inte ta två bilder på samma motiv, en 18MP och en 4,5MP så vi kan jämföra.

Att tillverkarna ljuger om antalet pixlar håller jag dock inte med om.

Vad säger ni är det så här Ken menar? Och framförallt finns det någon sanning i att bilden blir skarpare?

Jag och nej :)

Den kan se skarpare ut givet en viss presentationsstorlek, och ett visst betraktningsavstånd. Men det kan, med en annan presentationsstorlek, och ett annat betraktningsavstånd också bli precis tvärtom.

Men för många vanliga presentationsstorlek och betraktningsavstånd så kan du uppleva den som skarpare.
 
http://sv.wikipedia.org/wiki/Pixel
http://sv.wikipedia.org/wiki/Bayerfilter

Det finns olika slag av pixlar. Ett slags språkförbistring alltså. Sensorns fyra färgblinda pixlar, där var och en mäter sin färg. En annan pixel (icke färgblind) skulle vara lik en kakelplatta med en bestämd färg. Fyra färgblinda pixlar , som tillsammans ger ett medeltal för en färgad pixel blir ju en grynigare skärpa än vad en enda färgad pixel ger. Sensorn med 18 Mp färgblinda ger således 4,5 Mp färgade. Men det belyser inte något problem, för en kamera med 10 Mp färgblinda kommer att ge 2,5 Mp färgade. Pixel-racet kommer vi inte så lätt undan. När jag betraktar bilder med olika pixel till 12 år bakåt i tiden, så visst ser man en positiv utveckling med digitalkamerorna och till fördel för många pixlar.
 
http://sv.wikipedia.org/wiki/Pixel
http://sv.wikipedia.org/wiki/Bayerfilter

Det finns olika slag av pixlar. Ett slags språkförbistring alltså. Sensorns fyra färgblinda pixlar, där var och en mäter sin färg. En annan pixel (icke färgblind) skulle vara lik en kakelplatta med en bestämd färg. Fyra färgblinda pixlar , som tillsammans ger ett medeltal för en färgad pixel blir ju en grynigare skärpa än vad en enda färgad pixel ger. Sensorn med 18 Mp färgblinda ger således 4,5 Mp färgade. Men det belyser inte något problem, för en kamera med 10 Mp färgblinda kommer att ge 2,5 Mp färgade. Pixel-racet kommer vi inte så lätt undan. När jag betraktar bilder med olika pixel till 12 år bakåt i tiden, så visst ser man en positiv utveckling med digitalkamerorna och till fördel för många pixlar.

Där är inte jag beredd att hålla med. De 18 miljoner färgblinda pixlarna ger faktiskt (i fallet Eos 7D) 5184 x 3456, eller 17915904 färgade pixlar. Inte 4,5 miljoner, utan i runda slängar just 18 miljoner.

Däremot kan man hävda att upplösningen inte fullt motsvarar 18 miljoner pixlar där man inte interpolerat fram färginformationen. Men faktum är att den praktiska skillnaden är överraskande liten.

Läs gärna den här artikeln
http://www.luminous-landscape.com/reviews/cameras/achromatic.shtml
Här testar de en akromatisk sensor, alltså en där man inte interpolerar fram färg. Slutsatsen är, mycket starkt förenklat: Visst får man mer upplösning, men inte så mycket mer som man kan tro.
 
Jämför man då med Bayer filtertexten, så skulle 18 miljoner färgade Canon pixlar motsvara 72 miljoner färgblinda pixlar.
 
Jämför man då med Bayer filtertexten, så skulle 18 miljoner färgade Canon pixlar motsvara 72 miljoner färgblinda pixlar.

Nu vet jag inte om det du skrev var ett svar på det jag skrev, men jag skull säga att så enkelt är det inte.

Skall man lita på de praktiska testerna av Phase Ones akromatiska mellanformatsbakstycken så vinner man kanske i runda slängar 35% i upplösning på att skippa färginterpoleringen. Eller annorlunda uttryckt, att detaljupplösningen hos sensorn i en Eos 7D motsvarar den i en helt svartvit sensor på 13,5 megapixel.

Inte speciellt dramatiskt alltså.

Nu kan jag glatt erkänna att mina kunskaper på området är rätt ytliga, misstänker att till exempel Joakim vet en hel del mer om det här ... :)
 
Det beror helt på motivet hur många "procent verklig upplösning" man kan uppnå.

Så länge man håller sig på lägre ISO där brusnivåerna är ganska låga är nogrannheten i interpoleringen av de två saknade färgerna i varje pixelposition väldigt god! Men eftersom det finns ett (nästan) oändligt antal möjliga scenarion kan man inte sätta EN definitiv siffra för hur hög upplösning en Bayer-baserad sensor har.

MEN - i normala fall, för en genomsnittlig bild, med den elektronik och mjukvara vi har idag kan vi nog säga att vi ligger på (som Martin mycket riktigt uppskattade enligt annan information) en upplösningsförlust på ca 35%.

Då gör man ANTAGANDET att felmarginalen mellan en bild från en 18MP sensor och en "perfekt avbildning" - som man t.ex kan få av en multishot-kamera eller en monokrom kamera med utbytbara färgfilter (som man man bl.a använder för att fotografera av konstverk) - ska hålla sig under en "viss nivå".

Den "pixelperfekta" bilden innehåller då en perfekt mätning av varje färg i varje pixelposition. Sen skalar man båda bilderna neråt tills skillnaden mellan dem understiger någon slags tröskelvärde, oftast då baserad på förmågan i mänsklig syn osv. Den upplösning där bilderna är "tillräckligt lika för att inte kunna skiljas med synen" är då kamerans verkliga detaljupplösning.

Som jag inledde så beror det på motivets beskaffning hur mycket man måste skala ner för att bilderna ska bli lika. För vissa, lätta typer av mål kanske det bara är 20%. För andra mål, till exempel mål som innehåller mycket högupplösta detaljer skiftande mellan rött och blått kanske man hamnar (iaf i lokala avsnitt av bilden) på upp till 60%, en nerskalning från 18 > 4MP. Detta är ett mycket extremt exempel som i stort sett aldrig uppkommer i verkligheten. Genomsnittet är ca 35-40%.
.................

Alla som äger en bra zoom (eller två bra fasta med lite skillnad i brännvidd!) kan testa detta ganska lätt själva!

Ta den längre varianten (eller zoomen på den långa delen) och ta ett foto från stativ. Byt objektiv till det kortare - eller zooma ut - och ta ett foto till. Framkalla fotot taget med kortare brännvidd. Framkalla fotot taget med längre brännvidd, och skala sedan ner detta foto så att något som är säg 100 pixlar brett i första bilden blir 100 pixlar brett i andra bilden också. De ska bli "i samma avbildningsskala"

Den nerskalade bilden kan vi nu se som "referens". Den är förhoppningsvis en väldigt god avbildning av verkligheten. Hur mycket upplösningsskillnad är det nu på fotona? Antagligen ser du en del skillnad.

Skala sedan ner BÅDA fotona till säg 70% av deras nuvarande storlek. Finns det fortfarande en skillnad? Antagligen inte - det kommer iaf vara väldigt svårt att se en tydlig skillnad mellan dem.
 
Oj, teknikbiten var tufft och tungt att lära sig. Nu förstår jag varför man inte ska sjunka i teknikbiten utan fokusera på fotografering istället ;-) Nemen, jag förstår delvis bättre men det finns fortfarande några oklara grejer som jag skulle vilja testa som jag skrev tidigare. Jag vill se resultatet själv för att vara övertygad.

Ska göra ett par nya tester - ISO 6400 mRAW vs RAW och sen skala ner RAW till mRAW storlek så kan vi jämföra därifrån. Om det visar att mRAW är bättre på hög ISO så är saken klart att jag ska alltid fotografera mRAW vid hög ISO.

Här kommer även en länk som jag hittade här på fotosidan!
http://www.fotosidan.se/forum/showpost.php?p=1351034&postcount=21

Där kan man se hur man skalar ner bilderna på bästa sätt. Men nu är min fråga: Har Photoshop inte blivit bättre med nyare versioner? Då tänkte jag på CS4 och CS5. Men det ser ut som att egen lösning är mycket bättre men det är också mycket att tänka på original upplösning från början. Man vill inte sitta mer tid framför datorn för att jobba med bilderna :) Hellre mer fotografering än tid framför datorn! Som sagt teknikbiten blir allt mer tungt mer man läser på!
 
Nej, nyare PS är inte bättre. PS prioriterar ALLTID hastighet framför kvalitet/nogrannhet. Det är en del av konceptet...

Sen är det bra om du jämför själv - men var noga med vad du anser vara "bättre", var lite självkritisk i din granskning också. Mer brusreducerad måste inte betyda "bättre" - osv.

Sen stämmer mitt första inlägg fortfarande ganska väl med verkligheten, oberoende av vilka parametrar man blandar in. Behöver man inte upplösningen finns det ingen jättestor förlust med att använda mRAW. Vinsten däremot är diskutabel, så det är ju nåt man får bestämma själv....

VET man däremot att det man fotar ska upp på 50x35cm så är det bättre att lämna full storlek i råfilen. De verktyg som finns i datorn arbetar bättre med fullstorleksbilder än om de måste interpolera upp ett resultat som kameran interpolerat ner en gång först...
 
Nu har jag gjort ett eget "kentest", alltså jämfört Raw mot sRaw, med min Canon 40D.

I går kväll kom jag på att jag kanske kunde test själv, så jag rotade fram instruktionsboken, och visst kunde jag det. 40D har en 10MP sensor och klarar av Raw och sRaw, sRaw innebär i det här fallet 2,5MP. Och nu blev det intressant, 2,5MP är ju det magiska 1/4 av 10MP.
Varför har Canon valt just den upplösningen som sRaw, stämmer allt som Ken skriver?

Så idag har jag tagit några testbilder och jämfört om man får skarpare bilder och mindre brus om man använder sRaw.
Och svaret är (trumvirvel)... ingen aning.
Blir inte klok på resultatet jag får fram. När jag tittar på bilderna i ACDSee, utzoomat så jag ser hela bilden och bläddrar fram och tillbaka mellan en Raw och en sRaw, så är Raw märkbart skarpare. Men när jag öppnade bilderna i Elements för och göra lite bildbevis och lägga in här, så ser jag ingen större skillnad mellan Raw och sRaw.

Två skillnader ser man dock tydligt. För det första, Raw innehåller mer detaljer. Vilket känns självklart. Det andra är att all sRaw är lite mörkare trots lika exponering.

Jag ska väl också tillägga att jag har inga egentliga kunskaper om hur man utför ett sånt här test på bästa möjliga sätt. Jag har bara kört lite på känn så att säga, men jag tror det ska vara hyfsat rättvist.

Jag lägger in några exempelbilder. Dom tre första för att jämföra skärpa och den sista för att jämföra brus. Den sista bilen är ur fokus, men tyckte den visade bruset bra.
Alla bilder är tagna i Hi-läget, vilket blir ISO 3200.

Ska bli intressant och se vad Mikael kommer fram till med 7D.
 

Bilagor

  • iso3200-zoom50-100.jpg
    iso3200-zoom50-100.jpg
    75.9 KB · Visningar: 179
  • iso3200-zoom100-200.jpg
    iso3200-zoom100-200.jpg
    69 KB · Visningar: 182
  • iso3200-zoom100-100.jpg
    iso3200-zoom100-100.jpg
    74.4 KB · Visningar: 175
  • iso3200-zoom100-200-brus.jpg
    iso3200-zoom100-200-brus.jpg
    65.1 KB · Visningar: 184
Nej, nyare PS är inte bättre. PS prioriterar ALLTID hastighet framför kvalitet/nogrannhet. Det är en del av konceptet...

Sen är det bra om du jämför själv - men var noga med vad du anser vara "bättre", var lite självkritisk i din granskning också. Mer brusreducerad måste inte betyda "bättre" - osv.

Sen stämmer mitt första inlägg fortfarande ganska väl med verkligheten, oberoende av vilka parametrar man blandar in. Behöver man inte upplösningen finns det ingen jättestor förlust med att använda mRAW. Vinsten däremot är diskutabel, så det är ju nåt man får bestämma själv....

VET man däremot att det man fotar ska upp på 50x35cm så är det bättre att lämna full storlek i råfilen. De verktyg som finns i datorn arbetar bättre med fullstorleksbilder än om de måste interpolera upp ett resultat som kameran interpolerat ner en gång först...

Nu har jag bestämt mig att fortsätta med linjen som jag alltid kört med hittills - fullt RAW 18 MP och så får jag lära mig att skala ner bilderna på bättre sätt så har jag ingenting att förlora. Dessutom har jag läst Stefan Ohlssons artikel om hur man skärper bilderna. Ledigutrymme i datorn känns inte så viktig för mig då det är inte så dyr att skaffa 2 TB hårddisk. Dessutom har jag en snabb dator som klarar stora RAW filer utan problem så det känns onödigt att gå ner i kvalitet.

18MP innebär att jag kan beskära mer också iallafall om det skulle behövas - bra till fågelfotografering. Men om jag beskär 900x600 till 100% crop då blir det problem. Men det är sällan jag behöver göra det så det är lugnt. Min slutsats: 18MP vinner. Tack för att ni hängde med i diskussion och jag hoppas att fler än jag som har nytta av den forumtråden.

Jag är inte klar med min granskning - jag kommer att göra några jämförelse när jag har tid över.

The_SuedeII: Tack för att du tog tid och ge bra information! Tycker den länken som jag hittade senast är intressant. Nu förstår jag mer hur Adobe tänker också. Så många av deras filter skulle kunna förbättras men de valde hastighet pga annars skulle ta längre tid. De kanske tänker så här att allt fler datorer blir starkare så kan de höja och förbättra funktioner? Du kanske skulle kunna göra en plug-in där man kan utnyttja beskärning / förminskning till max och kanske interpolerar upp bättre. På något sätt kan man beräkna bildens storlek automatiskt så förminskas den på rätt sätt. Kanske ett sånt plug-in finns redan?
 
Nu har jag gjort ett eget "kentest", alltså jämfört Raw mot sRaw, med min Canon 40D.

I går kväll kom jag på att jag kanske kunde test själv, så jag rotade fram instruktionsboken, och visst kunde jag det. 40D har en 10MP sensor och klarar av Raw och sRaw, sRaw innebär i det här fallet 2,5MP. Och nu blev det intressant, 2,5MP är ju det magiska 1/4 av 10MP.
Varför har Canon valt just den upplösningen som sRaw, stämmer allt som Ken skriver?

Så idag har jag tagit några testbilder och jämfört om man får skarpare bilder och mindre brus om man använder sRaw.
Och svaret är (trumvirvel)... ingen aning.
Blir inte klok på resultatet jag får fram. När jag tittar på bilderna i ACDSee, utzoomat så jag ser hela bilden och bläddrar fram och tillbaka mellan en Raw och en sRaw, så är Raw märkbart skarpare. Men när jag öppnade bilderna i Elements för och göra lite bildbevis och lägga in här, så ser jag ingen större skillnad mellan Raw och sRaw.

Två skillnader ser man dock tydligt. För det första, Raw innehåller mer detaljer. Vilket känns självklart. Det andra är att all sRaw är lite mörkare trots lika exponering.

Jag ska väl också tillägga att jag har inga egentliga kunskaper om hur man utför ett sånt här test på bästa möjliga sätt. Jag har bara kört lite på känn så att säga, men jag tror det ska vara hyfsat rättvist.

Jag lägger in några exempelbilder. Dom tre första för att jämföra skärpa och den sista för att jämföra brus. Den sista bilen är ur fokus, men tyckte den visade bruset bra.
Alla bilder är tagna i Hi-läget, vilket blir ISO 3200.

Ska bli intressant och se vad Mikael kommer fram till med 7D.

Du genomförde testet bättre än mig :) Där ser man tydligt att RAW spöar sRAW. Ja blir spännande och se vad jag får för resultatet från min 7D. Den här gången ska jag lägga till skärpa efteråt också då det är skärpan i slutresultatet som är intressant.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar