Annons

Hur beter sig pixlarna?

Produkter
(logga in för att koppla)

Mats G

Aktiv medlem
En (1) pixel är väl den minsta enheten i en digital bild.

Jag funderar på är hur då i ex. Ps kan lägga skärpa med radie mindre än en pixel (Typ, skärpa för webb, radie 0,5 px mängd 100%).
Finns det halva pixlar?

Detta är ju "onödigt vetande", men sånt som man kan komma att fundera på...
 
En (1) pixel är väl den minsta enheten i en digital bild.

Jag funderar på är hur då i ex. Ps kan lägga skärpa med radie mindre än en pixel (Typ, skärpa för webb, radie 0,5 px mängd 100%).
Finns det halva pixlar?

Detta är ju "onödigt vetande", men sånt som man kan komma att fundera på...

Det är inte alls konstigt. Tänk att bilden är homogen, inga pixlar, oändlig upplösning. Så lägger du på skärpa, eller vad du nu vill göra för operation med radien 0.5px. Operationen påverkar ett område. Sen konverterar du tillbaka till pixlar då ser du att pixlarna blivit mörkare och ljusare, man påverkar alltså flera pixlar.
 
Det är inte alls konstigt. Tänk att bilden är homogen, inga pixlar, oändlig upplösning. Så lägger du på skärpa, eller vad du nu vill göra för operation med radien 0.5px. Operationen påverkar ett område. Sen konverterar du tillbaka till pixlar då ser du att pixlarna blivit mörkare och ljusare, man påverkar alltså flera pixlar.

Det där förstår jag inte alls. Först är det inga pixlar, sedan gör man en operation som använder pixlar på det? Och sedan konverterar man tillbaka till pixlar...
Jag kan nog inte tänka så som du föreslår. Har det något att göra med att pixlarna närmast "radien" bara får en mindre del av operationens effekt?
 
Sett förut...

Jag har tidigare sett/läst bra förklaringar här på FS (eller i artiklar/videos länkade från FS) på varför/hur radien påverkar bilden vid t.ex. skärpning. Förstår inte heller ett yota av senaste svaret. Förmodligen p.g.a. undermålig beskrivning eller kanske undermålig associationsförmåga p.g.a IPA-framställd öl (jag menar min egen förmåga att tolka svaret). Du bör garanterat fä bättre/nyktrare svar snart...
 
Jag har tidigare sett/läst bra förklaringar här på FS (eller i artiklar/videos länkade från FS) på varför/hur radien påverkar bilden vid t.ex. skärpning. Förstår inte heller ett yota av senaste svaret. Förmodligen p.g.a. undermålig beskrivning eller kanske undermålig associationsförmåga p.g.a IPA-framställd öl (jag menar min egen förmåga att tolka svaret). Du bör garanterat fä bättre/nyktrare svar snart...

Säkert undermålig förklaring.

Tänk så här då: bilden som pixlarna representerar är analog, dvs kontinuerlig. Bilden existerar även mellan samplingsvärdena (läs pixlarna). Dvs även skärpningsvärden som är 0.5 pixlar breda är vettiga att prata om.

Precis som med ljud och tex CD-skivors sampling.

Lycka till med IPA-ölen :)

Det är lättare om man tänker ljud för det är endimensionellt. Googla gärna på samplingsteoremet.
 
Tänk så här då: bilden som pixlarna representerar är analog, dvs kontinuerlig. Bilden existerar även mellan samplingsvärdena (läs pixlarna).
I en digital representation av en bild existerar endast bilddata i form av pixlar. Något magiskt mellan pixlarna finns inte.

Man kan interpolera fram data mellan två pixlar, men det är data som man inte har registrerat vid fototillfället.
 
Man får se det ungefär såhär.

Pixlarna som kvadrater. Kant i kant.

Filtret som en cirkel vilken sveper fram över pixlarna.

Med radien 0,5 pixlar når filtret maximalt fyra pixlar samtidigt. Detta i krysset mellan fyra pixlar.

För att öka upplevelsen av skärpa ökas kontrasten mellan de pixlar som är inom cirkelns yta. Någon blir mörkare och någon blir ljusare. Sedan sveper cirkeln vidare och proceduren upprepas.

När 0,5 radie cirkeln i sitt svep hamnar mitt på en pixel så händer ingenting. Det finns ju inga grannpixlar inom räckhåll att jämföra med, så cirkeln sveper bara vidare.

Med radien 1 pixel når filtret maximalt 9 pixlar samtidigt. Detta när mitten är mitt i en pixel.

Ungefär alltså. Enligt vad jag läste i någon bok för länge sedan.
 
I en digital representation av en bild existerar endast bilddata i form av pixlar. Något magiskt mellan pixlarna finns inte.

Man kan interpolera fram data mellan två pixlar, men det är data som man inte har registrerat vid fototillfället.

Det är inget magiskt men rätt coolt. Kolla digital signalteori, nyqvistteoremet. Det krävs bara två sampel per våg för att representera en signal. Dvs för att återskapa en signal som innehåller frekvenser upp till 4000Hz måste man sampla 8000Hz eller snabbare. Bara två sampel för en hel våg. Magi? Nej. Signalteori som vi använder varje dag.

Den digitala bilden du har representerar en analog bild.
 
Det är inget magiskt men rätt coolt. Kolla digital signalteori, nyqvistteoremet. Det krävs bara två sampel per våg för att representera en signal. Dvs för att återskapa en signal som innehåller frekvenser upp till 4000Hz måste man sampla 8000Hz eller snabbare. Bara två sampel för en hel våg. Magi? Nej. Signalteori som vi använder varje dag.

Den digitala bilden du har representerar en analog bild.

Du är en hjälte som försöker dig på att beskriva det här.

Vad radien i skärpe-verktygen normalt definierar är inte radien av en cirkel utan standardavvikelsen för en tvådimensionell Gauss-kurva. Kurvan är egentligen oändligt stor men man klipper den till hanterbar storlek, oftast mindre än 6 standardavvikelser. Så matar du in 0.5px görs förmodligen skärpningen i de flesta fallen i något steg med hjälp av någon form av viktat medelvärde över ett ungefär 3x3 pixlar stort område.

Smart sharpen är lite annorlunda i att det förmodligen är ett en-stegs deconvolution filter men inversen av din point spread function (vad du väljer som algoritm i menyn) kommer även den att vara större än funktionens standardavvikelse.
 
Du är en hjälte som försöker dig på att beskriva det här.

Vad radien i skärpe-verktygen normalt definierar är inte radien av en cirkel utan standardavvikelsen för en tvådimensionell Gauss-kurva. Kurvan är egentligen oändligt stor men man klipper den till hanterbar storlek, oftast mindre än 6 standardavvikelser. Så matar du in 0.5px görs förmodligen skärpningen i de flesta fallen i något steg med hjälp av någon form av viktat medelvärde över ett ungefär 3x3 pixlar stort område.

Smart sharpen är lite annorlunda i att det förmodligen är ett en-stegs deconvolution filter men inversen av din point spread function (vad du väljer som algoritm i menyn) kommer även den att vara större än funktionens standardavvikelse.

Köper din förklaring på vad just det filtret gör. Vad jag var inne på är att det är bättre generellt att tänka att bilden är analog och bara representerad av pixlar i den upplösning man råkar ha, dvs det finns bild mellan samplen. Att det sen råkar överensstämma med signalteorin (ingen slump) är en bonus :)

Så att göra operationer som har radier på mindre än en pixel är vettigt, det kommer påverka pixlarna runtom och totalupplevelsen är ändrad som om man haft högre upplösning.

Som bilden visar, värdet mellan två sampel är inte "mittimellan" (även om det ofta duger) utan det beror på omgivningen.
 

Bilagor

  • Sine-Wave-Half-Sampled.png
    Sine-Wave-Half-Sampled.png
    38.8 KB · Visningar: 14
Vad jag var inne på är att det är bättre generellt att tänka att bilden är analog och bara representerad av pixlar i den upplösning man råkar ha, dvs det finns bild mellan samplen.
Jag har ett hum om vad Nyquist-Shannons samplingsteorem går ut på.

Det är sant att våra kameror inte samplar så mycket som det teoretiskt går att göra, men när väl samplingen är gjord så finns det ingen "bakomliggande bild" som går att återskapa.

Sidospår detta. Förklaringarna från dig och Hannes om hur "skärpning" med oskarp mask går till har jag inget att invända mot.
 
Det är inget magiskt men rätt coolt. Kolla digital signalteori, nyqvistteoremet. Det krävs bara två sampel per våg för att representera en signal. Dvs för att återskapa en signal som innehåller frekvenser upp till 4000Hz måste man sampla 8000Hz eller snabbare. Bara två sampel för en hel våg. Magi? Nej. Signalteori som vi använder varje dag.

Den digitala bilden du har representerar en analog bild.

Det är helt riktigt att man exakt kan interpolera fram innehållet mellan två diskreta sampel om man säkert vet att den ”verklighet” (analoga signal) man försöker återskapa inte innehåller några frekvenskomponenter med högre frekvens än halva samplingsfrekvensen. Och för att bli säker på det blir man typiskt tvungen att lågpassfiltrera signalen/bilden innan den samplas/digitaliseras. Ett förtydligande i sammanhanget är alltså att man kan återskapa innehållet mellan pixlar i en tillräckligt lågpassfiltrerad version av ett fotografiskt motiv – man kan inte återskapa det faktiska motivet.
 
Jag har ett hum om vad Nyquist-Shannons samplingsteorem går ut på.

Det är sant att våra kameror inte samplar så mycket som det teoretiskt går att göra, men när väl samplingen är gjord så finns det ingen "bakomliggande bild" som går att återskapa.

Sidospår detta. Förklaringarna från dig och Hannes om hur "skärpning" med oskarp mask går till har jag inget att invända mot.

Förlåt sidospår men det är viktigt, det "magiska" med Nyquist är just att man kan återskapa en kontinuerlig (jo faktiskt, kontinuerlig) signal (ljud eller bild) utifrån samplen (pixlarna) så länge som samplingsfrekvensen (upplösningen) är dubbla frekvensinnehållet.

Så jo, med risk att låta tjatig, pixlarna representerar en "bakomliggande bild".

(Snart kommer vi in på AA-filter och varför de behövs men vi kan hoppa över den biten så länge vi bara försöker återskapa bild)

Edit: Sorry Claes, såg inte ditt inlägg.
 
Man blir lätt yrslig!

Tack för era försök att förklara!
Det är inte utan att man blir lätt yr när man försöker förstå vad ni skriver.
:)
Mats
 
Jo, det fattar jag, men om det i stället i mitt ex. skulle stått 0,2 px?

Ola lärde oss att det inte är en cirkels radie som avses. Utan istället radien i kurvan av en matematisk formel.

Men om det nu hade varit radien av en cirkel som avsågs hade en aldrig så liten radie ändå nått fyra pixlar om origo placerades i krysset mellan dessa fyra pixlar.
 
Fantastiska förklaringar! Äntligen förstår jag hur unsharp mask fungerar! Hur kantkontrastalgoritmen räknar ut radien baserad på gaussian blur filtret och hur enkelt det var att förstå hur en halv pixels radie förhåller sig till ursprungsbildens pixlar! NOT! Gör om, försök igen grabbar! Ska ni hänvisa till akademiska meriter behöver ni nog lära er förklara så vanligt folk förstår!
 
Fantastiska förklaringar! Äntligen förstår jag hur unsharp mask fungerar! Hur kantkontrastalgoritmen räknar ut radien baserad på gaussian blur filtret och hur enkelt det var att förstå hur en halv pixels radie förhåller sig till ursprungsbildens pixlar! NOT! Gör om, försök igen grabbar! Ska ni hänvisa till akademiska meriter behöver ni nog lära er förklara så vanligt folk förstår!

Eller så kan ju du förklara för oss som inget begriper? Jag bryr mig inte ett skvatt om hur det fungerar tekniskt, bara det blir bra. Om du liksom jag inte är intresserad av tekniken hör du nog inte till målgruppen för tråden.
 
ANNONS
Götaplatsens foto – en riktig fotobutik.