Advertisement
ANNONS
Annons

Högre upplösning i del av bild

Produkter
(logga in för att koppla)
Det är väl upp till var och en att göra vad med sina bilder. Mina publiceras lite här o var och printas i olika storlekar på olika media. Sålde inte allt för längesen en 120*80 cm aluprint, men inte med sån här teknik.
Din fråga är samma fråga vad man ska med en 20, 50, 100 MPx när 2Mpx oftast räckt till för publicering på fb och instagram.
En 300 MPx panorama istället för en liknande tagen med supervidvinkel kan man redigera hårdare utan att det syns, brus nivån sänks också relativt sätt.

Får iaf tacka för visat intresse.

/Stefan

Jag frågar därför att jag är nyfiken på hur det här fungerar. För mig är det helt enkelt svårt att förstå när den här idén är tillämplig, om den nu inte användas vid digital publicering där man kan zooma in i bilden för att ta del av den ökade detaljrikedomen. Att använda den här tekniken för att sedan printa bilden ger ingenting. Eller vad är det jag inte förstår?
 
Jag frågar därför att jag är nyfiken på hur det här fungerar. För mig är det helt enkelt svårt att förstå när den här idén är tillämplig, om den nu inte användas vid digital publicering där man kan zooma in i bilden för att ta del av den ökade detaljrikedomen. Att använda den här tekniken för att sedan printa bilden ger ingenting. Eller vad är det jag inte förstår?
Har också lite svårt för att greppa det här konceptet. Jag hittade denna sida som jag tror illustrerar det lite mer begripligt: http://www.kolor.com/wiki-en/action/view/Multiple_focal_length_stitching

Men förstår jag dig rätt att det inte skulle bli någon ökad detaljrikedom i de områden där man fotat med en längre brännvidd i det fall man printar bilden. (Alltså, menar du att man endast får en "vinst" med detta om man betraktar bilden digitalt)?
 
Jag frågar därför att jag är nyfiken på hur det här fungerar. För mig är det helt enkelt svårt att förstå när den här idén är tillämplig, om den nu inte användas vid digital publicering där man kan zooma in i bilden för att ta del av den ökade detaljrikedomen. Att använda den här tekniken för att sedan printa bilden ger ingenting. Eller vad är det jag inte förstår?

Jag redigerar ju hellre en högupplöst bild till dess bristningsgräns och maskerar eventuella defekter när man sedan "måste" förminska bilden än att redigera motsvarande bild med lägre upplösning med samma redigering.
Jag printar även hellre en 300MPx bild på 120*80cm alu än en 20MPx.
Men ibland är det svårt att få till hela panoramor så det var där jag funderade att man kanske kunde få till delar som är väsentliga i den upplösningen som om man hade gjort panoramorna. Så för ca en vecka sedan började jag laborera och och har någorlunda fått till ett ok resultat.

Har också lite svårt för att greppa det här konceptet. Jag hittade denna sida som jag tror illustrerar det lite mer begripligt: http://www.kolor.com/wiki-en/action/view/Multiple_focal_length_stitching

Precis, efter jag fick idén så googlade jag också fram denna sida. Jag har förmånen att ha mjukvaran. Använt den ett tag, riktigt bra är den, men jag har bara använt den till vanliga panorama, små planeter och bokehrama. Första gången jag körde med superupplösning på del av bild var för en vecka sen. Bilden länkade jag i tidigare post.
 
Någon som testat fotografera med olika brännvidder för att sedan slå ihop det så att man får en viss del av motivet högre upplöst än resten?

Tips och tricks och mjukvaruval mottages gärna.
Fördelar/Nackdelar är också av intresse.

/Stefan

JA. Jag fotade en gång en vidvinkel natt bild, därefter bytte till tele och tog kort på månen och slog dem samman i Photoshop. Månen blev då så stor som jag upplevde den irl.
 
JA. Jag fotade en gång en vidvinkel natt bild, därefter bytte till tele och tog kort på månen och slog dem samman i Photoshop. Månen blev då så stor som jag upplevde den irl.

Det där är ju knappast samma sak.
Men intressant vad du skriver om att månen blev så stor som du upplevde den IRL.
När jag tittar på månen och den ser vara en viss storlek i relation till ett annat objekt så har den samma proportioner oavsett brännvidd jag fotat med.

/Stefan
 
Det där är ju knappast samma sak.
Men intressant vad du skriver om att månen blev så stor som du upplevde den IRL.
När jag tittar på månen och den ser vara en viss storlek i relation till ett annat objekt så har den samma proportioner oavsett brännvidd jag fotat med.

/Stefan

I och med den brännvidden jag valde först så såg ju månen bara ut som en större stjärna. Så upplever jag den inte Irl. Då ser jag ju konturerna och gubben i månen.

http://nature.lonian.se/#!album-15-5 länk.
 
Senast ändrad:
I och med den brännvidden jag valde först så såg ju månen bara ut som en större stjärna. Så upplever jag den inte Irl. Då ser jag ju konturerna och gubben i månen.

http://nature.lonian.se/#!album-15-5 länk.

Självklart är det så men i verkligheten såg du inte heller så mycket åt sidorna som bilden med vidvinkel gjorde. För att bilden ska bli realistisk (i det här fallet: visa det som du upplevde det) måste du beskära vidvinkelbilden (i praktiken alltså förstora den). Annars har du först "backat" för att få med så mycket referensobjekt som mycket och sedan "gått närmare" månen för att den ska bli större. Då blir visserligen månen större men du återger inte hur det såg ut i verkligheten.
 
Självklart är det så men i verkligheten såg du inte heller så mycket åt sidorna som bilden med vidvinkel gjorde. För att bilden ska bli realistisk (i det här fallet: visa det som du upplevde det) måste du beskära vidvinkelbilden (i praktiken alltså förstora den). Annars har du först "backat" för att få med så mycket referensobjekt som mycket och sedan "gått närmare" månen för att den ska bli större. Då blir visserligen månen större men du återger inte hur det såg ut i verkligheten.

Jag menar naturligtvis hur JAG upplevde det, inte hur det såg ut i verkligheten. Två olika saker.
Och jo. Jag såg ju åt sidorna också som vidvinkeln visar, har ju två ögon. Min hjärna målade upp en liknande bild för mig.

Hur som använde jag 2 olika brännvidder för bilden.
 
[...]
jpg kan inte ha olika upplösning i olika delar.
[...]

Nej, men jpeg-kompressionen kan ge intressanta effekter här.

En jpeg komprimerar block om 8x8 pixlar genom att frekvensanalysera varje block och sedan spara de viktigaste frekvenserna. I hög kvalitet sparar man alla frekvenser, i låg kvalitet bara de viktigaste.

Om man då har en bild som helt saknar högre frekvenser, dvs en där varje 8x8-block är enfärgat, kommer kompressionen inte att behöva spara några frekvenser alls. (Testa gärna att spara en helt enfärgad bild i olika jpeg-kvalitet)

Genom att ha olika detaljinformation i olika delar av bilden, kommer alltså jpeg-kompressionen att automatiskt bli väldigt hög i de lågupplösta delarna, även om man försöker spara hela bilden i hög kvalitet.

Jag är inte säker på att det här har någon praktisk betydelse, men det är i princip ett sätt att få olika detaljinformation i olika delar av bilden (så som jpeg-kompressionen alltid funkar på alla bilder).
 
Jag menar naturligtvis hur JAG upplevde det, inte hur det såg ut i verkligheten. Två olika saker.
Och jo. Jag såg ju åt sidorna också som vidvinkeln visar, har ju två ögon. Min hjärna målade upp en liknande bild för mig.
Synfältet för människans synsinne är mellan 2 och 7 grader, ungefär (beroende på vilka krav man har på synskärpa). Utanför detta synfält kan man uppfatta rörelser, men inte så skarpt att man kan identifera vad som rör sig. För att få ett vidare (skarpt) synfält måste man röra på ögonen, dvs rikta om synsinnets "objektiv", och/eller vrida på hela huvudet. Att du har två ögon vidgar inte synfältet nämnvärt men ger däremot förstås ett djupseende. (Ögonrörelserna är ju synkroniserade på en normal, frisk människa som inte försöker skela).

Din kollagebild är antagligen rätt nära vad du tyckte dig uppfatta, men man bör vara medveten om att vad man uppfattar kan vara rätt långt ifrån verkligheten. (Ett problem som kan ställa till det för bl.a. vittnesförhör).
 
Nej, men jpeg-kompressionen kan ge intressanta effekter här.

Genom att ha olika detaljinformation i olika delar av bilden, kommer alltså jpeg-kompressionen att automatiskt bli väldigt hög i de lågupplösta delarna, även om man försöker spara hela bilden i hög kvalitet.

Jag är inte säker på att det här har någon praktisk betydelse, men det är i princip ett sätt att få olika detaljinformation i olika delar av bilden (så som jpeg-kompressionen alltid funkar på alla bilder).
Nej jpg är matematik.

Nej det ändrar inte upplösnignen.

Nej det har det inte.

jpeg-2000 däremot vet jag inte hur det fungerar.
 
Jag menar naturligtvis hur JAG upplevde det, inte hur det såg ut i verkligheten. Två olika saker.
Och jo. Jag såg ju åt sidorna också som vidvinkeln visar, har ju två ögon. Min hjärna målade upp en liknande bild för mig.

Hur som använde jag 2 olika brännvidder för bilden.

Det jag försökte säga var att du upplevde den så stor eftersom månen var så stor i den lilla "bildvinkel" ögonen ger oss. När du såg den genom ett vidvinkelobjektiv upplevde du att den var mindre än i verkligheten, men det var den givetvis inte. Där såg du dock mer än vad vi kan göra med bara två ögon.
 
Nej jpg är matematik.

Nej det ändrar inte upplösnignen.

Nej det har det inte.

jpeg-2000 däremot vet jag inte hur det fungerar.

Jag vet ju att du begriper det här, så vi pratar nog bara förbi varandra. Antalet pixlar ändras inte, men om större delen av bilden bara har låga spatialfrekvenser kommer jpeg-algoritmen att räkna fram en massa nollor för de höga frekvenserna.

Jag har inte riktigt klart för mig om de nollorna sparas direkt eller om de komprimeras bort. Min gissning var att de komprimeras bort, och då får vi samma effekt som om bilden bestod av större pixlar i delarna utan detaljerad information.

Se avsnittet "Discrete cosine transform" https://en.wikipedia.org/wiki/JPEG
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar