Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Funderingar kring HDRI

Produkter
(logga in för att koppla)

ph0tech

Aktiv medlem
Jag har läst lite på nätet angående High dynamic range images. För er som inte vet vad HDRI är så kan man förklara det så att man tar en mängd bilder av samma motiv fast med olika exponeringar så man får täckning i alla delar av bilden. Sedan kombinerar man dessa bilder till en HDRI fil och kan sedan välja sin exponering utifrån hdri-filens innehåll. Vad jag lurar på just nu är varför inte digitalkamerorna gör det här per automatik åt oss. Låt oss säga att kameran skulle ha ett HDRI läge där kameran utgår från en frammätt exponering precis som vanligt. Men att när man sedan tar bilden så läser kameran en sekvens med bilder allt från tokunderexponerad till toköverexponerad och sedan bygger en HDRI fil av detta och spar ner på minneskortet. När man sedan för in bilden i datorn skulle man då kunna bestämma vilken slutartid man vill använda.

Detta är bara rena spekulationer och önskedrömmar men vore det möjligt rent tekniskt?

Om det vore det så finns juh ganska intressanta möjligheter. Tänk aldrig mer en utfätt himmel och aldrig mer ett skugga utan täckning!
 
Jag är insatt i HDRI, men inte i RAW, men det är väl det RAW är till för, dvs att den inte trunkerar några värden?
 
Vad jag tror Feredrik menar är inte Raw utan att ta flera bilder med olika slutartider och bländare för att få dynamik i hela bilden (Raw bygger ju på en exponering). Vad jag tror vi pratar om är bracketing som dessutom mergar bilderna, troligen i RAW-format.
 
Det här är en av många spännande funktioner som kommer i framtida generationers digitalkameror... vi har inte sett nåt än!

Fotografikonsten står inför en revolution. Nån som tror nåt annat??

Att man har samma mumbojumbo som man haft sen slutaren uppfanns är bara en eftergift åt skeptiska analogfotografer för att de ska acceptera digitaltanken.

Det är som expresståget, det går sakta i starten, men vänta bara till det får upp ångan (eh!?)...
 
Peter... du har fattat helt rätt.
Vore det inte ballt att slänga av ett enda skott och täcka in alla tänkbara slutartider från 1/4000 upp till 1/5 eller nått sånt där allt bakas in i en enda raw-fil. Sedan när man kikar på bilden så är det bara att välja det man vill skall vara rätt exponerat. Vad jag förstår så finns det även applikationer som arbetar direkt mot HDRI filer och gör det möjligt att jobba med bilden ungefär som med shadow/highlight i PS CS. Det vill säga. Man skulle kunna använda täckningen som skuggorna fick från de "bilder i bilden" som lagrades vid slöare slutartider och samtidigt hämta täckning från de snabba till ytor som annars borde ha blivit utfrätta. Vad jag har lyckats läsa mig till så finns det redan möjlighet att göra allt detta. Men man är då tvungen att ta samma bild med olika exponeringar för att i efterhand bygga upp en HDRI.

Men jag tror inte att den här tekniken kommer att slå stort förens kamerorna själva klarar av att göra jobbet med olika exponeringar.

Den som lever får väl se :)
 
Absolut nite så dumt. Jag funderade själv för många år sedan på att sätta sensorn på en kvartskristall så att jag blixtsnabt skulle kunna ta 3-4 bilder, med sensorn lite förskjuten och alltså få högre upplösning. OM man gör så kan man joba med mindre pixlar, vilket är billigare att tillverka tror jag. Dock mer bruskäsliga, men tillbaka till huvudtemat.

Ett anat sätt att göra bättre bilder är ju att istället för att läsa ut pixlarnas värde vid en viss tidpunkt, mäta hur lång tid det tar innan de uppnått ett optimalt värde. Då får du den dynamiken du pratat om, fast i en bild på en gång. Dessutom får du som bonus att bruset borde kunna minimeras eftersom varje pixel kräver en optimal nivå. Problemet är att denna tidräkning måste sitt lokalt vid varje pixel eftersom den bandbredd som krävs för att på något vis centralisera densamma inte kan uppnås. Problemet med att sätta mätningen vid varje pixel är nog i sig lösbart, men elektroniken tar plats och pixlarna blir små, men om man kombinerar det med kvartsshiftern jag nämde kan man kanske komma runt det problemet. Små pixlar blir dock mindre ljuskänsliga och ger alltså mer brus. Ett annat alternativ är att göra eletroniken separat och motera ihop dem med s.k. flip-chip. Men det fins ingen som lyckats göra ens i näreten så stora flip-chip monteringar som vi pratar om här. Och om det blir möjligt så blir det nog fruktansvärt dyrt.

Sedan undrar jag hur bildrna ser ut när varje pixel har olika exponeringstid. Egentligen tror jag inte att det är något problem...mörka områden får mer rörelseoskärpa än ljusare....men å andra sidan, får att an skall se ett mörkt områdes kant så måste där finas ett ljusare, och det skulle då ha kortare slutartid och alltså var skarpare.
 
Skakar liv i tråden igen.
Jag hittade ett verktyg som hette HDRShop som låter en skapa hdr filer av vanliga exponeringar.

Det går till så att man tar samma bild med så många exponeringar som möjligt. Jag testade en snabbis igår och körde:

1/1000
1/500
1/250
1/125 <- Kamerans exponering
1/60
1/30
1/15
1/8
1/4
1/2
1

Den bilden på en sekunds exponering vart nästan helt vit och den som var på 1/1000 förbaskat mörk. Jag tog bilderna med stativ men ändå så flyttas bildinnehållet nån pixel hit och dit mellan exponeringarna. Så jag tog in samtliga bilder i photoshop och lade dem allihopa som separata lager i en bild. Sedan var det bara att börja från botten och gå uppåt. Jag använde flyttaverktyget och piltangenterna för att "räta upp" så att alla bilder verkligen låg rätt. När detta var gjort beskar jag bilderna så att alla fick samma dimentioner (dom var juh lika från början men när man flyttar dem så blir den sammanfogade bilden inte i samma format). När beskäringen var gjord sparade jag varje separat lager som en ny bild.

Sedan startade jag upp HDRShop och skapade en HDR utifrån min bildsekvens. Efter det körde jag en tonemap-plugin för att komprimera bildinformationen så den går att se som en vanlig low dynamic range bild. Det vart skitbra!

Motivet jag tog på var vår uteplats som är vitmålad panel. Det var på kvällen så solen stod lågt och våra träd kastade skuggor över gräsmattan plus att mycket av huset låg i skugga. Alltså skitjobbigt att exponera på vanligt sätt.

Resultatet vart en perfekt exponering där man ser detaljer i den vita panelen och skuggor som inte bara är kolsvarta utan innehåller detaljer.

Tyvärr har jag inte bilden med mig till jobbet utan skall lägga upp den så fort jag kan.

Har dock mitt första exprimentresultat här:
http://www.fotosidan.se/gallery/viewpic.htm?set=lp&ID=212800

Är ni nyfikna på HDRShop så finns det här:
http://www.debevec.org/HDRShop
Där finns även tonemap-pluginen

Här är lite fler exempel på hur bra det kan bli när man gör enligt detta arbetssätt:
http://www.cs.huji.ac.il/~danix/hdr/results.html
 
hur mkt bättre blir det än enbart två exponeringar? en där du mäter på ngt mörkt, och en där du mäter på ngt ljust.
 
Vet faktiskt inte då jag inte testat med enbart två exponeringar. Du menar att man tar två bilder en i highkey och en i lowkey och sedan lägger dem på varandra i photoshop och trixar lite?
 
(och vad betyder egentligen highkey och lowkey?? jo jag förstår vad du menar men förstår inte varför det heter just så)
 
Kanske felaktigt formulerat av mig....
Har för mig att i highkey så spotmäter du det ljusaste området i motivet och sedan exponeringskompenserar man nedåt... och vice versa i lowkey... men jag kan ha tokfel ;-)

Men huvudsaken är att vi förstår varandra.
Jag har för mig att jag sett nån tutorial på http://www.dpreview.com om detta med två exponeringar en väldigt ljus och en väldigt mörk och hur man skulle gå tillväga i ps för att kirra till en bra bild av dem. Jag har inte testat detta har du gjort det?
 
Den här funktionen finns väl redan. AEV-läget på min 300D tar en normalexponerad, en underexponerad och en överexponerad bild i följd. Hur mycket över- respektive underexponerade bilderna ska vara bestämms i en meny. Efterarbetningen får man naturligtvis göra i datorn i efterhand utifrån de tre bilderna. Observera att det handlar om tre separata exponeringar! Ingen lämplig metod för rörliga objekt med andra ord.
 
Jo vanligt exposure bracketing har de flesta digitalkameror som är lite mer avancerade än den allra billigaste kompakten. Men nu är det efterbehandligen vi pratar om. Alltså hur man skall kunna ta dessa tre, fem eller fler exponeringar och merga ihop dem till en enda. Samt att få den pseudoexponeringen anpassad till det spektrum som en LDR (Low dynamic range) bild klarar av, dvs 8 bitar / kanal.

En HDRI (High dynamic range image) har inte dessa 0-255 stegsbegränsningen per kanal som en 8-bitars bild har. Den lagrar i betydligt fler steg.
Problemet är att komprimera denna skala så att man får en så bra exponering som möjligt.

Jag har testat att skjuta med tre bilders exponeringsbracketing men det funkade inte nå bra att konvertera dessa till en HDR-fil. Min personliga reflektion är att juh fler delexponeringar man har desto säkrare kan man utifrån dessa skapa en HDRI.
 
det här med att ändra EV ger väl inte samma resultat som att ändra slutartid?
 
Nej det kanske inte är precis samma sak. Jag brukar exponeringskompensera genom att först mäta och sedan växla till det manuella läget. Då är det enkelt att kompensera med hjälp av slutartiden. Tror faktiskt att min kamera gör på samma sätt då man exponeringskompenserar i nått annat programläge, för utom när den "går i botten" för då har jag sett att vissa av mina bilder tagna vid snabbaste slutartid (1/1000) har ISO 65 vilket inte ens går att ställa in på kameran.

Men denna diskussion hör inte till den här tråden.
Är det ingen annan än jag som testat HDRShop med tonemapping-pluginen här på FS?
 
Jag vet att man använder HDR i 3D applikationer som reflection maps då de ger bättre blänk så att säga... är det så du använt det?
 
japp, hör inte till diskussionen egentligen, men vi använde det för att ljussätta scener när vi skrev en raytracer i en kurs på LTH. istället för att placera ut lampor så använder man en HDR-bild istället där varje pixel är en ljuskälla. Med det så man kan få olika stämning på sina scener med olika bilder som ljussättning. Har för mig att där finns några exempelbilder i 3D på HDRShop-sidan.
 
ANNONS
Götaplatsens foto – en riktig fotobutik.