Annons

Många (flera) pixlar inte alltid bara onödigt

Produkter
(logga in för att koppla)
Alltså, om kameran ska leverera fullstora exponeringsalternativ ur 1 exponering är EXAKT samma sak om du tar din RAW fil och gör det i datorn. Fast skillnaden är ju dock att du styr själv alla parametrar hur bilden ska bli.

Kameran är den som utför datorgrejerna. Blir det fult gör du fel!

/Stefan

Exakt! Men jag menar att de 3 exponeringarna som tas vid exakt samma nanosekund via processning i kameran blir mer kameramodellspecifika ut ur kameran. En över och en underexponering i rawkonverteraren kan få fler oönskade effekter eftersom olika kameror passar olika bra med olika konverterare.

Huruvida jag gör fel eller inte kan jag inte kommentera. Jag tycker bara att det blir fulare med s k "fusk-HDR" än med 3 seperata exponeringar (som egentligen bara går att utföra bra med kameran på stativ och i princip orörliga motiv).

Frågan jag ställde om det var möjligt att kameran kunde utföra 3 exponeringsalternativ grundat på en exponering var inte meningen som någon annat än ett rent intresse att veta svaret.

Att frågan överhuvudtaget kom upp beror ju på att tråden handlar om mängden pixlar. Och mängden pixlar har ju visat sig ha inverkan på DR.

Mvh/Lennart
 
Visst kan man fråga sig varför alla inlägg inte faller in under ev. mötesrubrik men en tråd som är en bra bit över 200 sidor med kanske 10-tals inlägg per sida innehåller totalt sett tusentals inlägg, så risken är stor att den täcker in det mesta som överhuvudtaget diskuteras och diskuterats här på FS :). Det är det som faktiskt gör den så enastående som den är och förr eler senare svänger den alltid tillbaka till huvudfrågan, så lite OT är sällan något större hot mot trådens.
 
Om man ska kunna göra full HDR, så som vi känner den tekniken idag, skulle man behöva läsa av hela sensorn, vid ett visst tillfälle, under exponeringens gång. Eller vid flera tillfällen, snarare, om det ska motsvara det som HDR-fantasterna helst jobbar med, alltså en exponeringsvarierad serie med ett antal bilder i. Såvitt jag vet går detta inte att göra med CMOS, och i ännu mindre grad med CCD. Inte som sensorerna fungerar idag, i alla fall.

Kanske om man kunde bygga sensorn inte bara i X och Y-led, utan även i Z-led? Så att en sensor med 33 megapixel egentligen har 100 megapixel, fast de två understa lagren med pixlar är inte ljuskänsliga, utan tar bara emot laddningsnivån från pixlarna ovanför, vid ett visst tillfälle, då alla 33 megapixlarnas nuvarande status kopieras neråt i sensorn.
Kopiera laddningar är inte lätt, utan att förstöra dem. Men när jag funderar vidare inser jag att det behövs ju inte heller. Om man flyttar ögonblicksexponeringen neråt vid varje tillfälle, och då nollställer lagret ovanför (får göras på två klockpulser), kan man återskapa bilden genom att lägga ihop lagren, men man har ändå tillgång till olika exponerade pixlar för varje punkt i bilden.

Instant HDR! Tillsätt bara vatten.

Återstår förstås att tillverka sensorer med flera våningar på det här sättet, men flera lager har man ju redan, så det gäller bara att ta tekniken till nya nivåer(!). Nu har jag uppfunnit. Dags för kiselkonstruktörerna att fixa implementeringen.
Jag skulle kanske lagt in om en patentansökan innan jag skrev??

Eller så får man göra som Joakim beskrev, där man stänger av delar av sensorn efter delar av exponeringen, så att man i efterhand kan läsa ut olika exponerade resultat från olika delar av sensorn. Men då tappar man i upplösning.
 
Senast ändrad:
Ja, jag vet. Jag gick till en ganska dyr optiker häromåret, men fick aldrig någon riktigt bra ordning på glasögonen. När det var dags för nya glasögon igen så gick jag istället till en annan optiker, som var ungefär lika dyr, men mycket bättre.

Skämt åsido: ni får ursäkta mig, men jag stör mig alldeles oerhört på den felaktiga använgningen av ordet "optiker".

En bättre formulering av meningen ovan hade varit:
"sedan finns det visst dyr optik som inte är bra, och vice versa."

Äger sin riktighet, men detta med plural, min variant är sämre, men var lätt att skriva.
 
Huruvida jag gör fel eller inte kan jag inte kommentera. Jag tycker bara att det blir fulare med s k "fusk-HDR" än med 3 seperata exponeringar (som egentligen bara går att utföra bra med kameran på stativ och i princip orörliga motiv).

Mvh/Lennart

Anledningen till att det blir fulare beror väl helt enkelt på att du har mindre dynamik att leka med. Eller det är i alla fall till viss del pga det, för jag har ju faktiskt ingen aning om hur program går till väga när den gör sina tonemappingar.


Om man ska kunna göra full HDR, så som vi känner den tekniken idag, skulle man behöva läsa av hela sensorn, vid ett visst tillfälle, under exponeringens gång. Eller vid flera tillfällen, snarare, om det ska motsvara det som HDR-fantasterna helst jobbar med, alltså en exponeringsvarierad serie med ett antal bilder i. Såvitt jag vet går detta inte att göra med CMOS, och i ännu mindre grad med CCD. Inte som sensorerna fungerar idag, i alla fall.

Kanske om man kunde bygga sensorn inte bara i X och Y-led, utan även i Z-led? Så att en sensor med 33 megapixel egentligen har 100 megapixel, fast de två understa lagren med pixlar är inte ljuskänsliga, utan tar bara emot laddningsnivån från pixlarna ovanför, vid ett visst tillfälle, då alla 33 megapixlarnas nuvarande status kopieras neråt i sensorn.
Kopiera laddningar är inte lätt, utan att förstöra dem. Men när jag funderar vidare inser jag att det behövs ju inte heller. Om man flyttar ögonblicksexponeringen neråt vid varje tillfälle, och då nollställer lagret ovanför (får göras på två klockpulser), kan man återskapa bilden genom att lägga ihop lagren, men man har ändå tillgång till olika exponerade pixlar för varje punkt i bilden.

Instant HDR! Tillsätt bara vatten.

Återstår förstås att tillverka sensorer med flera våningar på det här sättet, men flera lager har man ju redan, så det gäller bara att ta tekniken till nya nivåer(!). Nu har jag uppfunnit. Dags för kiselkonstruktörerna att fixa implementeringen.
Jag skulle kanske lagt in om en patentansökan innan jag skrev??


Är väl bara plocka några olika sensorer från olika kameror och vira runt lite silvertejp. Brukar ju funka med det mesta..

För övrigt har jag funderat på det i massa år att det på nåt sätt borde kunna gå att läsa ut datan från sensor under exponeringen. Tror jag själv uppfann det själv för säkert nästan 10 år sen! Fast då hade jag ingen silvertejp.. ;\
 
Känner mig till viss del skyldig här eftersom jag tror att jag är en av dem som införde formuleringen "ett gäng optiker" i ett lite skämtsamt (och faktiskt medvetet) ordsvängande som ersättning för den korrekta svenska meningskonstruktionen "ett par objektiv".

"Lp" använde jag naturligtvis i betydelsen "lp/ph" - linjepar per bildhöjd - eftersom det var i dessa värdesmängder ursprunget till mitt svar angavs. Jag antog "självklar betydelse" eftersom 1400lp/mm verkar lite mycket... :) - men iofs - med IDO och extremkorta våglängder kommer man ju lätt upp i dessa siffror med 10Mkr-optiken som monteras på en scanner/stepper...
 
Det absolut bästa, mest praktiska (men också dyraste) sättet att göra en "riktig" HDR-kamera är att använda två sensorer och en pellix-spegel. Detta är ju dock knappast aktuellt i något annat än kompaktsammanhang då kostnaden för en extrasensor och den mekaniska nogrannheten som krävs i monteringen är ganska stor.

En annan nackdel är att man (nästan) helt tar bort möjligheten till kontrast-AF, och därmed också en användbart snabb följande AF.

En väldigt stor FÖRDEL är att med tillräcklig monteringsnogrannhet (+/-1µm) av den sekundära sensorn så uppnår man 100% areatäckning av grön, och 50% av respektive blå/röd.... - I stället för som i en vanklig Bayer-mönster-sensor 50%, 25% och 25%. Dett gör underverk för precisionen i råfilsinterpoleringen - nästan som en lite bantad version av "fyrskottsvarianten" i vissa mellanformatsbakstycken (numer bara HB specialvarianter vad jag vet).
 
Fuji's variant med en sensor som använder pixlar i olika storlekar för att variera deras känslighet är mycket intressant.

Den berör trådrubriken på ett alldeles lysande sätt dessutom, eftersom den precis som Sony's prototypsensor (som jag nämnde tidigare) utgår ifrån att slutresultatet måste skalas ner för att bli "pixel-exakt" i sin spatiella (svenskt ord?) upplösning. Den kräver alltså en ganska hög grundupplösning för att resultatet ska bli jämförbart med kameror som inte använder denna princip.
Jag ska köra lite tester på just denna sensortyp ganska snart, då en F80EXR är planerad i inköpslistan på februari-lönen... :) Jag valde till slut denna kompakt eftersom jag räknar med att alla foton i "svårare" ljus ändå kommer tas med en av de större kamerorna jag har. Denna kamera är avsedd att användas i goda till medelgoda ljusförhållanden som ren stoppa-i-fickan-kamera.
http://www.fujifilm.com/products/digital_cameras/exr/about/index.html
-naturligtvis mycket "marketing-blurbs", men en ganska bra grundgenomgång av tekniken. Nackdelarna är dock inte så väldigt nogrannt redovisade... :)

Foveon:
Tekniken fortsätter utvecklas, men har hittat en del återvändsgränder.
*Det är svårt att öka upplösningen då pixlarna pga konstruktionsprincipen blir ganska djupa, och mängden stödelektronik direkt på sensorytan är dubbelt så stor som på en vanlig CMOS.
*Det är nästan omöjligt att ta fram en Foveon-bas utan att drabbas av väldigt starka metameri-effekter. En Foveon kommer aldrig kunna se ljus/färg så som en människa gör det...

Förenklat kan man säga att ögat (i starkare ljus) har tre grundfärger, precis som en RGB-kamera. Dessa tre färger består dock inte av R,G och B, utan snarare av S:"mycket djup blå", M:"svagt blågrön" och L:"svagt gulgrön". Färgen rött ser vi med hjälp av skillnaden i styrka på M och L. Ljushet ser vi genom att addera M+L.
M och L har en extremt stor överlappning, och detta påverkar hur vi upplever lite speciella, "spikiga" spektra. En Foveonsensor har pga konstruktionsprincipen ganska exakt NOLL i överlappning, vilket gör det väldigt svårt att översätta sensorresponsen till ögats konrespons.

En lösning som jag alltid undrat varför de inte ens övervägt är att låta grön vara för sig själv, och bara använda Foveon-principen i Röd/Blå. Då kan man låta Grön och Röd överlappa på ett väldigt korrekt sätt, den Blå kanalen är inte alls lika känslig på detta sätt då den ligger så väldigt långt bortanför i våglängd.
 
Mera berömm över denna tråd. När jag kom in för några år sedan, så dök det upp många konstiga inlägg, kan nog beskrivas som någon form av terror, eller ren jävelskap, Men nu för tiden ser man allt mindre av detta. Mycke pixlar leder förstås till Canonkamerorna och nu den då så aktuelle nya 7D, inge konstigt med det, efter som den har mest av den varan, Men som jag tror bara är starten av vad kommande modeller också får alltså många pixlar, i mellansegmentet släpper dom nu Eos 550D med 18MP, Nikon, Pentax kommer väl att följa efter. så 7D berättar redan nu vad vi har att vänta, Pixeltråden kommer nog att göra nytta ett bra tag framöver.//Bengt.
 
När kommer man lägga ner pixelracet?

Joakim har ju skrivit om sensorer med många pixlar där en del av dessa kan ges helt olika uppgifter ja t.o.m. ingå i helt olika system eller användas i binning.

En del skulle ju t.ex. kunna göra tjänst enbart i AF-systemet och andra ha roller i bildsensorsystemet.

Många har säkert tänkt tanken att nu räcker det väl ändå med pixlar? Vi har snart 20MP i t.o.m. en APS-C. Men tänker man tanken som Lennart att man vill kunna ta åtminstone två "identiska" bilder i samma ögonblick med samma sensor för att motverka rörelseproblemet kanske det kunde vara en ide att dela upp alla pixlar i två lika stora delar jämt spridda över sensorn om man har väldigt många säg 50 MP på en FF. Vem skulle behöva mer än 25MP för en bild i snikläget? Det har ju de värsta idag och vi är väl djupt imponerade "bara" av det. Kanske kunde man ha möjlighet att växla mellan snikläget på 25 till maxläget på 50 ungefär som man kan växla mellan APS-C-läget i en del FF idag med skillnaden att man använder alla 50 MP som bildsensor eller bara varannan pixel om man inte vill ha så stora bildfiler eller binnar för max DR eller använder 25 MP till bild 1 och 25 MP till bild 2 om man vill göra en riktig HDR-bild utan risk för partiella fantombilder då saker rör sig i motivet.

Det ska verkligen bli spännande att se vart pixelraseriet tar vägen. Som sagt. Jag har haft 14 MP nu i mina två senaste kameror och jag har väl landat i att det räcker väl rätt bra och blir över. Men med tankar på "den nya flexibilitet" man kan få med smart användning av riktigt många pixlar så kanske jag får äta upp mina tvärsäkra slutsatser raderna ovan fortare än jag anar :).
 
Det ska verkligen bli spännande att se vart pixelraseriet tar vägen. Som sagt. Jag har haft 14 MP nu i mina två senaste kameror och jag har väl landat i att det räcker väl rätt bra och blir över. Men med tankar på "den nya flexibilitet" man kan få med smart användning av riktigt många pixlar så kanske jag får äta upp mina tvärsäkra slutsatser raderna ovan fortare än jag anar :).

Ibland går utvecklingen väldigt fort, ibland stagnerar den. Det enda man med visshet kan veta är att det forskas.
"Mer än 640 Kb i arbetsminne skulle aldrig behövas i en PC".

Du kanske aldrig behöver äta upp dina ord/slutsatser. Men OM så var glad att de inte är ristade på en runsten. Lite väl hårdsmält.

Personligen tror jag vi får se en annan arkitektur på sensorer i framtiden där effektiviteten per pixel alltmer går mot 100%. I de vanliga konstruktionerna "försvinner" ju en ansenlig del procentuellt sett. Och då behöver ju inte pixelmängden öka i större omfattning

Sedan beror ju mycket på vad tillverkarna tror/anser att den stora massan köpare vill ha.

Utan att "elitisera" folket som häckar i trådar som denna på FS så är vi nog inte ansedda som ett statistiskt representativt urval för den stora massan.
 
...

Många har säkert tänkt tanken att nu räcker det väl ändå med pixlar? Vi har snart 20MP i t.o.m. en APS-C. Men tänker man tanken som Lennart att man vill kunna ta åtminstone två "identiska" bilder i samma ögonblick med samma sensor för att motverka rörelseproblemet kanske det kunde vara en ide att dela upp alla pixlar i två lika stora delar jämt spridda över sensorn om man har väldigt många säg 50 MP på en FF. Vem skulle behöva mer än 25MP för en bild i snikläget? Det har ju de värsta idag och vi är väl djupt imponerade "bara" av det. Kanske kunde man ha möjlighet att växla mellan snikläget på 25 till maxläget på 50 ungefär som man kan växla mellan APS-C-läget i en del FF idag med skillnaden att man använder alla 50 MP som bildsensor eller bara varannan pixel om man inte vill ha så stora bildfiler eller binnar för max DR eller använder 25 MP till bild 1 och 25 MP till bild 2 om man vill göra en riktig HDR-bild utan risk för partiella fantombilder då saker rör sig i motivet.

.... Men med tankar på "den nya flexibilitet" man kan få med smart användning av riktigt många pixlar så kanske jag får äta upp mina tvärsäkra slutsatser raderna ovan fortare än jag anar :)

Jag tror att det är ganska säkert att det är den vägen "pixelracet" kommer att gå men med åtskilligt mycke mer pixlar än 50 Mpix på en FF. Uppdelade utläsningar som t.ex. 10 utläsningar á 1/1000 istället för en enda på 1/100. Och det som kommer att höja DR till max är att förloppet blir helt digitalt utan något läsbrus alls och då har vi HDR per automatik utan några hjälpprogram.

Smaklig måltid ;-)
 
Många har säkert tänkt tanken att nu räcker det väl ändå med pixlar? Vi har snart 20MP i t.o.m. en APS-C.

Ja, jag är rätt lockad av Canon EOS 7D, men inte för dess många pixlar utan för allt annat den har. Problemet med den är att det blir så mycket data att hantera. Jag skulle förmodligen behöva uppgradera dator och lagringsutrustning för att kunna hantera filerna från kameran, och då blir det ju en betydligt högre kostnad än att bara köpa en ny kamera. För min användning behöver jag knappast heller så många pixlar som EOS 7D har.

Så småningom skaffar jag väl en ny dator ändå, och då kan det kanske vara dags att tänka på en kamera med fler pixlar, men jag kommer nog alltid att hålla mig bland de kameror som har färre pixlar än det gällande rekordet.
 
Utan att "elitisera" folket som häckar i trådar som denna på FS så är vi nog inte ansedda som ett statistiskt representativt urval för den stora massan.

Men de flesta som deltar i diskussioner som denna är ju en elit. Du konstaterade just det, trots ditt inledande försök att inte göra det. :)
 
Men de flesta som deltar i diskussioner som denna är ju en elit. Du konstaterade just det, trots ditt inledande försök att inte göra det. :)

Tja, tolkningsfråga. Får omformulera det då men den andemening sentensen var avsedd att ha: Folket på denna tråd och liknande avviker nog från den breda massan. Att vara avvikande innebär inte per automatik att man tillhör någon elit.

Fast förhoppningsvis har vi väl kvalificerat oss bort från "gärdsgårdsserien" genom att söka mer kunskap.
 
Ja, jag är rätt lockad av Canon EOS 7D, men inte för dess många pixlar utan för allt annat den har. Problemet med den är att det blir så mycket data att hantera. Jag skulle förmodligen behöva uppgradera dator och lagringsutrustning för att kunna hantera filerna från kameran, och då blir det ju en betydligt högre kostnad än att bara köpa en ny kamera. För min användning behöver jag knappast heller så många pixlar som EOS 7D har.

Så småningom skaffar jag väl en ny dator ändå, och då kan det kanske vara dags att tänka på en kamera med fler pixlar, men jag kommer nog alltid att hålla mig bland de kameror som har färre pixlar än det gällande rekordet.

Du får väl köra JPEG :).
 
...

Så småningom skaffar jag väl en ny dator ändå, och då kan det kanske vara dags att tänka på en kamera med fler pixlar, men jag kommer nog alltid att hålla mig bland de kameror som har färre pixlar än det gällande rekordet.

Finns ju möjlighet att köra mRAW och sRAW, vilket kanske är en bra lösning i ditt fall?
 
Nerskalning ger till skillnad från vad många tror faktiskt bara en VÄLDIGT liten vinst i DR... Så grundprestanda förutom pixelnogrannhet i skärpa och detaljering påverkas faktiskt väldigt mycket mindre än vad många "mång-pixel-ivrare" skulle vilja att den var.

Det som däremot förändras ganska "teoretiskt perfekt" efter att man kommit förbi de första 30 procenten av nerskalning är signal/brusavståndet för allt som faktiskt redan från början (utan skalning) fanns i bilden. Bilden blir alltså "renare", men får inget större dynamiskt omfång.

Detta enligt den TEKNISKA definitionen!
Enligt den lite mer allmänt gångbara (mer populistiska) definitionen "från utblåst vitt ner tills att JAG tycker att skuggpartierna innehåller för mycket brus" så vinner naturligtvis bilden "DR" på en nerskalning, iaf på ISO på och högre än typ 800 på en crop-kamera. Tveksamt på bas-ISO.

Jag tror många kameraaffärer hade vunnit mycket på upphängda direktjämförelser av t.ex A4+ eller A3-utskrifter (de säljer ju oftast skrivare också!)... Jag tror också att många ANVÄNDARE (eller blivande köpare) hade tjänat mycket på att jämföra bildresultat i en viss - naturligtvis ganska stor - skala. Ju fler pixlar kamerorna innehåller desto mer oviktigt blir antalet. 1MP > 2MP är en stor skillnad i bildens användbarhet. Är skillnaden 10MP>20MP också en stor skillnad? Inte enligt mig iaf. Skillnden 20>40 är ännu mindre - för de flesta, även mycket krävande användare (en försvinnande liten del av kundbasen).
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar