Annons

Varför blir blåklockor violetta?

Produkter
(logga in för att koppla)
Tack Ola! Du kan inte ana hur mycket ditt inlägg värmer.

Jag är frustrerad, försöker reda ut detta för mig själv. Förstår alla delarna (och varför vi ens kan uppfatta violett) men har ändå svårt att greppa att blått-violett-lila-rött upplevs närliggande när de egentligen är i ändarna på spektrumet plus att lila är en blandfärg. Nyckeln måste vara just det, att lila är den blandfärgen som knyter ihop cirkeln.

Borde det inte finnas en djupröd färg under rött på samma sätt som det finns en violett över blått?
 
Vi har väl inte konstaterat att det är ett problem? Blåklockor är ju violetta.

Kan vi börja med att enas om att blåklockor har en mycket varierande färg, från klart lila till en färg som jag skle beskriva som blå med en dragning mot en röd ton? Kan vi också enas om att TS tyckte sig ha ett problem genom att de blåklockor han fotograferade hade en annan färgton än den han upplevde i verkligheten? Att de var mer lila än vad han hade sett? Och att han tyckte att övriga färger återgavs på det sätt som han förväntat sig. Det är ju problemet.

Och när du nu hävdar stor erfarenhet, skulle du möjligen kunna förklara hur en violett ton också kan återges av röd kanal, för att ge lila färg via våra visningsmedia för bilden? Ska vi alls kunna se lila toner som består av mättat violett, en enda våglängd?

Men det är klart att vi kan. Vi kan ju se våglängder ner mot 380 nm. I våra visningsmedia simuleras denna färg genom en kombination av rött och blått, precis på samma sätt som gult simuleras genom att man visar röd och grönt samtidigt.
 
Vi har flera grupper av blandfärger, konstigt vore det annars. Men om vi inte har receptorer för spektralt violett, så borde vi inte kunna se den färgen, om den inte också registreras av andra tappar än de blåkänsliga. Liknande problem med blandningar finns naturligtvis också bland övriga färger, men violett och rött har egenheten att deras våglängd ligger vid ändpunkterna på det synliga spektret. Vi rullar ihop det till en ring och förenar ändarna för att få fram färgcirkeln: https://en.wikipedia.org/wiki/Color_wheel

Om det är våra rödkänsliga tappar som tar emot det violetta samtidigt med det blå för att skapa blandfärgen, så är vi vad jag har uttryckt som "falska tetrakromater", dvs trikromater med en av våra känselkroppar för färg känslig för två frekvenser. Den röda signalen utan blått blir rent röd, men när den också innehåller blått blir det en blandning.

När vi ser olika rosa eller närbesläktade toner kommer vi ibland in i den här regionen också. En rosa som innehåller blått blir någon variant av färgen "mauve", malva. Vi kan ha olika begrepp för den, men inom fotografi vill vi gärna lägga upp dess koordinater i RGB. Exempelvis åkervinda kan ha lite varierande färg, från vit över rent rosa till en lila ton som innehåller alla tre färgerna.

Och även malvafärgen har en viss bredd. Den kan anta flera olika lila nyanser mot den blå eller röda sidan, med tillskott av grönt, som med rött och blått är vitt.
http://www.quelleestladifference.fr/2011/11/quelle-est-la-difference-entre-le.html

Och det kan nog finnas en sådan djupröd som ger oss lite i den blå kanalen i vår hjärna. Huruvida den gör det på en sensor kanske vi kan utröna genom att fotografera dess spektrum. Jag såg några rosor igår som kanske hamnar i den kategorin. De ser mycket mörkt röda ut, men det kan ju handla om en rent röd nyans som inte har så hög lyskraft.

För den som är intresserad av seendets psykologi och fysiologi finns nog mycket att hämta genom att experimentera med olika färger och spektralanalysera dem, och det har självklart ganska god bäring också på hur vi kan fotografera färgerna och vilka färger som är önskvärt att återge. Kanske inte alla vill ha den lila tonen i blåklockan, om den i verkligheten upplevs som närmre mättat blå?
 
... skulle du möjligen kunna förklara hur en violett ton också kan återges av röd kanal, för att ge lila färg via våra visningsmedia för bilden? Ska vi alls kunna se lila toner som består av mättat violett, en enda våglängd?

Men det är klart att vi kan. Vi kan ju se våglängder ner mot 380 nm. I våra visningsmedia simuleras denna färg genom en kombination av rött och blått, precis på samma sätt som gult simuleras genom att man visar röd och grönt samtidigt.

Och jag tänker mig att det rimligen borde vara så att vårt upptagningsmedium, en sensor med Bayer-filter, registrerar den violetta tonen med fler kanaler än enbart den blå, för att senare kunna syntetisera den lila färgen genom att blanda ihop de två färgerna som har fångats på sensorn.
 
Jag är frustrerad, försöker reda ut detta för mig själv. Förstår alla delarna (och varför vi ens kan uppfatta violett) men har ändå svårt att greppa att blått-violett-lila-rött upplevs närliggande när de egentligen är i ändarna på spektrumet plus att lila är en blandfärg. Nyckeln måste vara just det, att lila är den blandfärgen som knyter ihop cirkeln.
Urban redde ju precis ut det i det svar som han gav till mig. Han påstod till och med att det var enkelt. ;-)
Det handlar om övertoner. Violett är en överton till rött eftersom den har dubbelt så hög frekvens (2 * 380 nm = 760 nm). Det är därför som ögats röda tappar reagerar på violett ljus.

Borde det inte finnas en djupröd färg under rött på samma sätt som det finns en violett över blått?

Ja, men eftersom receptorer (ögats, kamerans, vilka du vill) inte är lika känsliga för undertoner som övertoner så vållar den inte lika mycket problem.
Men ja, man utnyttjar undertonerna när man fotar med IR-filter. Det är därför som man får ut olika signal på alla tre färgkanaler även när man fotar IR med en digitalkamera.
 
Urban redde ju precis ut det i det svar som du gav till mig. Han påstod till och med att det var enkelt. ;-)

Tack men jag förstår fortfarande inte varför det finns en färgcirkel, varför evolutionen har knutit ihop ändarna för oss. Kul för oss fotografer men varför blir extremen uppåt...plötsligt extremen nedåt? Det måste finnas någon fördel.

Ja, men eftersom receptorer (ögats, kamerans, vilka du vill) inte är lika känsliga för undertoner som övertoner så vållar den inte lika mycket problem.

Vi har alltså mindre känslighet för djuprött men färgen finns dock där och vi kan se den. Men om vi inte plockar upp den som en aning blått kan vi inte skilja den från rött, det krävs ju två receptorer för att kunna se utan för det vanliga området på samma sätt som för violett som vi lätt kan se och ju ligger utanför blått.
 
Urban redde ju precis ut det i det svar som han gav till mig. Han påstod till och med att det var enkelt. ;-)
Det handlar om övertoner. Violett är en överton till rött eftersom den har dubbelt så hög frekvens (2 * 380 nm = 760 nm). Det är därför som ögats röda tappar reagerar på violett ljus.



Ja, men eftersom receptorer (ögats, kamerans, vilka du vill) inte är lika känsliga för undertoner som övertoner så vållar den inte lika mycket problem.
Men ja, man utnyttjar undertonerna när man fotar med IR-filter. Det är därför som man får ut olika signal på alla tre färgkanaler även när man fotar IR med en digitalkamera.

Du redigerade ditt svar, jo jag förstår att den röda receptorn också är inblandad.

Är färgcirkeln en slump och komemr sig av att det råkar bli halva frekvensen?
 
Jag tror att det dyker upp mycket fler frågor än svar när man börjar spåna kring färgerna och varför de uppfattas som vi ser dem. Men en liten bit på väg tror jag ändå att vi har kommit.

Jag ska se om jag kan få en bra bild på de djupröda rosorna och spara RAW, så att man kan se vilka kanaler som är inblandade och hur mycket. Jag tycker att det är intressant, och jag tror att redan när någon för länge sedan kom på färgcirkeln var det många frågor kring färgerna.

Hos gemene man funderar man kanske inte över frekvenser och våglängder, men när man sysslar med lite mer avancerad behandling av färgerna kommer man osökt dit, och då är det ju en gåta varför det violetta binds ihop med det röda i cirkeln.
 
Blått blir inte alltid violett

Bortsett från blåklockors färg, förstår jag inte riktigt hur färgrymderna fungerar. Om jag i PS (Photoshop) och Prophoto RGB gör en rent blå färg RGB 0,0,255 HSB 240,100,100 och sedan minskar mättnaden på denna så blir den ljusare, men ser ut att ha samma nyans. Gör jag samma sak med sRGB (och aRGB) blir den snabbt violett vid sänkt mättnad. Om jag istället låter PS konvertera (relative photometric) Prophoto RGB 100,100,255 HSB 240,61,100 till sRGB blir sRGB 0,199,255 HSB 212,100,100 och nyansen ser likadan ut som den ursprungliga Prophoto färgen.

Varför gäller ”blue turns to purple” när jag minskar mättnaden i sRGB och aRGB men inte i Prophoto? ”blue turns to purple” gäller inte heller när jag låter PS konvertera från Prophoto till sRGB.
 
Nej, vem förstår hur färgrymderna fungerar?

Jag tror att det är ett av de allra svåraste koncepten i begreppsbildningen kring fotografering, vilket inte minst den här tråden visar. Det är väldigt många bollar att hålla i luften för att kanske bara lite grann förstå hur färg alls fungerar.

Om man har en bakgrund i fysik är det kanske en aning lättare, men gåtor av det slag som den här tråden handlar om finns ändå. Vi har ett väldigt begränsat utrymme för färger i återgivningen, där bildskärmen har en maximalt röd, grön och blå, som när vi blandar dem blir vit. Inte lika vit som den vi kan se på den vita solbelysta fönsterkarmen, främst för att vi inte kan få sådan lyskraft i skärmen, men ändå med färgkoordinater som överensstämmer, och om vi kunde återge starkare ljus i skärmen, skulle vi kunna få fram vitt.

Men det gäller ju inte de enskilda färgerna, eftersom vi aldrig överhuvudtaget kan få fram spektralfärgerna som ligger emellan de grundfärger som vi blandar, och där ligger ett av problemen som vi överbryggar genom att godta en mindre exakt återgivning.

Vi har inte ens begrepp för det som dyker upp i färgrymden, även om vi ganska väl kan definiera ett färgomfång. Rymd och omfång är inte heller riktigt samma sak.

Så välkommen i gänget Idn99. Jag förstår inte heller helt och hållet, och jag tvivlar på att någon alls gör det. Men så länge vi håller oss inom omfång som kan återges av en bildskärm, kan det vara bra att komma ihåg att alla tre grundfärgerna tillsammans bildar vitt, och när en blandfärg med två färger får ett tillskott av den tredje, minskar mättnaden ytterligare. När den tredje grundfärgen förs till, spär vi ut med vitt. En lila ton som får lite mer grönt glider kanske över mot rosa, eller i alla fall malvafärg. Om vi redan har lagt dit maximalt med blått och rött, kan vi inte få mer av de färgerna, så allt tillskott av grönt kommer att dra den mot vitt.

Och svart finns inte alls. Åtminstone inte om man inte ser en lampa som en "dark sucker".
 
Varför gäller ”blue turns to purple” när jag minskar mättnaden i sRGB och aRGB men inte i Prophoto? ”blue turns to purple” gäller inte heller när jag låter PS konvertera från Prophoto till sRGB.

Jag har faktiskt aldrig råkat ut för det, däremot så har jag råkat ut för motsatsen. Att blått böjar driva över mot turkost när man ökar mättnaden. I det fallet är förklaringen enkel; Den blå färgkanalen är bottnad och när man ökar färgmättnaden så börjar den gröna komma i kapp.
När man minskar mättnaden så borde väl alla färgkanaler gå i riktning mot någon sorts mellangrått?
 
Den blå färgkanalen är bottnad och när man ökar färgmättnaden så börjar den gröna komma i kapp.

Tänk ett varv till här.

Mättnad existerar inte i en blandad färg. Om man har nått maxvärde i någon kanal, kan färgen inte komma längre i mättnadsgrad (om uttrycket alls borde användas om en per definition blandad färg). För utskrift eller tryck kommer dessutom problemet med skilda färgsystem in.

Kanske programmens handtag är alltför enkla lösningar på hur vi kan hantera de olika effekterna i en bild, då de leder oss att tro att det vi gör är det som står på etiketten. Det finns till exempel en kontroll som kallas "exponering" i en del bildbehandlingsprogram, men det finns ingen möjlighet alls att påverka exponeringen i efterbehandlingen av den en gång exponerade bilden.

På liknande sätt hänger det ihop med den "mättnad" som man kanske tror sig kunna öka. De enda färgerna som i datorn kan nå mättnad är de tre grundfärgerna, rött, grönt och blått. I tryck är det färgerna cyan, magenta och gul. Och eftersom det är rackarns svårt att få fram svart med de tre färgerna har vi också en protes att ta till när kryckor inte hjälper, så vi har en svart färgpatron också.

Det går att definiera precis vilka färger som helst i datorn, men vi kan inte visa alla färger i något av våra visningsmedia. Om vi har valt att begränsa vilka färger som kan definieras, måste vi hålla oss inom det färgomfånget. När det gäller hur färgerna ska visas, kan datorn omvandla vilken färgrymd eller vilket omfång som helst till det som är möjligt att visa på en skärm, och där ingår inte heller svart.

När vi sysslade med film fick vi väldigt mycket större briljans när vi visade diabilder i projektor än vad vi kunde få på papper när vi framställde en kopia, och trots det betydligt lägre dynamiska omfånget i diafilmen upplevde vi det ändå som att bilderna var mer trogna mot verkligheten, eftersom projektionslampan kunde få duken att lysa bländande skarpt, och kontrasten mot de mörkare partierna blev mycket stor. Problemen när vi jobbar med digitalteknik, additiva färger och bildskärmar är annorlunda och många fler.

Men det underlättar att förstå att om man vill öka mättnaden i blått när kanalen har slagit i taket, måste luminansen sänkas; i samtliga kanaler. Om mjukvaran inte gör det, utan drar upp grönt, då är någonting allvarligt fel.
 
Du har ganska fel i att "ingen" förstår hur en färgrymd fungerar... :)

En färgrymd, liksom det mänskliga färgseendet (iaf det linjärt biologiska i det det hela, inte det psykovisuella som är din personliga hjärnas inlärda feltolkningar och gissningar...) är helt tristimulibaserad vare sig om vi pratar om RGB eller ögat.

Oavsett stimuliblandning har du alltid tre utläsbara parametrar: luminans, krominansstyrka och färgvinkel. Dessa tre (vilket är vad ditt öga och din hjärna utgår ifrån, och vad en RGB argetar inom) är alltid utläsbara, oavsett hur många diskreta spektraler som blandats. Du kan alltid, utan undantag, reducera ner en resultans-spektral till ett tristimuli. Alltid. Utan undantag. Någonsin.

Det du inte kan göra är att determinativt gå "tillbaka", dvs utifrån ett specifikt tristimuli komma fram till exakt hur det diskreta spektrat som gav detta tristimuli-svar såg ut. Därför existerar metamerier.

Nästa sak man måste förstå är att en tristimuli-definierad färgrymd per definition egentligen inte har "gränser". Rent praktiskt kan man ha hur negativa värden som helst. Även om en 8-bit presentation sätter 0-255 som presentationsrymd kan värden i färgrymden ha värden som -50 eller 400. Samtliga dessa värden är vad man kallar "rationella", dvs de existerar som en faktiskt punkt i färgrymden. Men de kanske inte kan/får sparas som värden i filen...

Hur ett program hanterar värden över 255 och undder "0" definierar hur klippningen sker.

Hur sedan Photoshop gör när det "minskar färgmättnad" är ju rent praktiskt beroende av hur PS förenklar proceduren. Det korrekta sättet är att omvandla från den valda arbetsfärgrymden till linjär obegränsad XYZ (människans tristimuli-referens), göra mättnadsreduktionen där, och sedan omvandla tillbaka till arbetsfärgrymden. Detta är ganska tungt rent beräkningsmässigt för datorn, så PS förenklar ner proceduren till något som antingen kan göras direkt i arbetsfärgrymden, eller i PS förenklade Lab-rymd som finns i bakgrunden av representationen. Detta ger inte nödvändigtvis ett linjärt resultat som exakt motsvarar vad en exakt omvandling hade gjort, men det går kanske tio ggr snabbare.

PS gör alla förenklingar som Adobe bedömt vara "visuellt försvarbara". Ett par procent förbttring i nogrannhet får inte kosta dubbelt så lång behandlingstid.
 
Tack stefohl, Urban Domeij och The_SuedeII för att ni har den här diskussionen! Den ligger väldigt högt över min kunskapsnivå och mycket över fattningsnivån också... Men det gör den också oerhört intressant att läsa! Det är ett utmärkt sätt att lära sig, att läsa någonting på hög nivå, läsa om, läsa mer som man inte riktigt begriper. Med tiden börjar kopplingar uppstå, och plötsligt blir det obegripliga allt mer begripligt. Inte på en gång kanske, som pensionär är man ju i utförsbacken men inte nödvändigtvis obildbar, så kunskapen växer efter hand som man läser sådana här diskussioner. Ni får mycket gärna fortsätta länge till, hoppas att ni orkar!
 
Tråden har hunnit bli rätt lång, och jag har inte gått igenom alla inläggen en gång till, men det slår mig här att våra kameror med Bayer-filter ju faktiskt kan knyta ihop blått med rött via violett, medan den som inte gör det i sitt öga kanske skulle bli mer nöjd med en Sigma som har Foveon-sensor?

Där är jag tillbaka på trådens ursprungsämne, och det har i Foveon-fallet att göra med hur färgerna tas upp och vilka som alls kommer fram till sensorns djupaste lager.

Men... Jag tvivlar väldigt starkt på att jag skulle uppskatta blåklockans färg i Foveon om den faktiskt är violett, som ju med tristimuli via ögats något ökade känslighet för violett i de rödkänsliga tapparna får mig att uppfatta den som lila.

Ja, jag vet att det är lite av en provokation, men jag vet också att The_SuedeII kan ha ganska bra svar att komma med. Fortfarande är jag nog så pass nyfiken att jag skulle vilja kolla den spektrala sammansättningen av blåsippans färg, och jag misstänker att den kan ha violett, som via min violettkänslighet ger en tristimulieffekt av lila/purpur eller vad man nu vill kalla färgen, den tristimuli jag onekligen måste uppleva av vilka diskreta spektralfärger som än kan ingå i blåklockan.

Att jag kommer att fixa ett prisma är ganska klart. Min syster har ett, i form av en liten V-formad behållare för vatten som man kan ha blommor i. Jag tänker mig att man kan titta på solljusets spektrum från prismat och med märkpenna rita gränserna för ljuset man ser, och så fotografera det och se om kameran "ser" samma spektrum. Där lär man ju också se om den violetta blir blå eller om den faktiskt blir blandfärgen lila/purpur, vår tristimulivariant för att se violett.

Vi får väl se vem som först presenterar ett resultat av det försöket.
 
Hur sedan Photoshop gör när det "minskar färgmättnad" är ju rent praktiskt beroende av hur PS förenklar proceduren. Det korrekta sättet är att omvandla från den valda arbetsfärgrymden till linjär obegränsad XYZ (människans tristimuli-referens), göra mättnadsreduktionen där, och sedan omvandla tillbaka till arbetsfärgrymden. Detta är ganska tungt rent beräkningsmässigt för datorn, så PS förenklar ner proceduren till något som antingen kan göras direkt i arbetsfärgrymden, eller i PS förenklade Lab-rymd som finns i bakgrunden av representationen. Detta ger inte nödvändigtvis ett linjärt resultat som exakt motsvarar vad en exakt omvandling hade gjort, men det går kanske tio ggr snabbare.

PS gör alla förenklingar som Adobe bedömt vara "visuellt försvarbara". Ett par procent förbttring i nogrannhet får inte kosta dubbelt så lång behandlingstid.

Det förklarar på intet sätt att om jag minskar färgmättnaden i PS för rent blått i Prophoto så uppfattar jag visuellt att nyansen är samma blå, men mindre mättad, men om jag gör samma sak i sRGB sker en kraftig förskjutning mot violett hur jag uppfattar färgen.
 
Det förklarar på intet sätt att om jag minskar färgmättnaden i PS för rent blått i Prophoto så uppfattar jag visuellt att nyansen är samma blå, men mindre mättad, men om jag gör samma sak i sRGB sker en kraftig förskjutning mot violett hur jag uppfattar färgen.

Jo, det förklarar faktiskt EXAKT varför det blir så... PS arbetar enligt "visuellt optimerade" färgförändringar, och "visuellt optimerade" förluster.

Det innebär att de som sitter och programmerar hur saker ska göras i bilderna när man drar i kontroller inte på något sätt är skyldiga att göra saker linjära eller korrekta. Deras uppgift är att ta fram funktioner som användarna "tycker" ser tillräckligt bra ut, med minsta möjliga arbetsinsats för datorn. Hur PS justerar färgmättnad har inget med exakt kolometri att göra öht.

Färgmättnaden stys i PS via arbetsrymdens värden i förhållande till varandra. Och eftersom gamma-värdet inte är samma för de olika färgrymderna kommer dessutom ljusheten på färgen påverkas av mättnadsförändringar.

Vill du ha EXAKTA färgomvandlingar får du skippa Photoshop och använda verktyg som faktiskt är linjära. Problemet med det är att de oftast är mycket långsammare, och har betydligt färre "praktiska" funktioner.

Vill du veta varför vridningen går mot violett i vissa stadier kan du söka på "munsell curves". Detta är en känd effekt som är väl dokumenterad sedan ett femtiotal år tillbaka.

Här har du -50 förändring i färgmättnad (samma effekt på kontrollen) i PS i tre olika färgrymder, med tre olika gamma-kurvor. Två av dem är tristimuli additiva (RGB-typer), Lab är tristimuli motstående - därför har de tre olika ljusheter. sRGB har en effektiv gamma upp mot 2.4, PP har en effektiv gamma på ca 1.8, Lab låser "Y"-kanalen vilket ska ge samma visuella "ljushetsintryck" oavsett färgmättnad. Eftersom PS tar vissa genvägar stämmer inte ljushetsintrycket perfekt i Lab-versionen, men om du kisar lite och försöker bortse från färg/färgmättnad och koncentrerar dig på ljusheten ser du att både PP och sRGB ger mycket ljusare versioner av färgen trots att du egentligen "bara" beställde en mättnadsförändring.

Den andra bilden visar vad som händer om du tar -50 mättnad på sRGB i två olika sammanhang - den till vänster är normal sRGBg2.4, den till höger är i linjär gamma (1.0). Dessa blir också väldigt olika. Vill du veta varför får du fråga utvecklarna på Adobe.... De kommer dock ge samma svar som jag gav ovan.
 

Bilagor

  • -50sat.png
    -50sat.png
    56.8 KB · Visningar: 277
  • -50sat_gamma.png
    -50sat_gamma.png
    15.1 KB · Visningar: 269
ANNONS
Upp till 6000:- Cashback på Sony-prylar