Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Dom tre grundfärgerna?

Produkter
(logga in för att koppla)
Kan vi inte se en bild på en regnbåge?

En regnbåge består av enbart spektralfärger (alla spektralfärger dessutom). En RGB-bild av en regnbåge består av endast tre spektralfärger och däremellan en färgblandning som är en hyfsad aproximation av regnbågens färger.

Det är ungefär som ringsignalerna på moderna telefoner. En piezoelektrisk kristall kan inte producera samma ljud som en orgel eller en gitarr, men den kan låta ganska likt.
 
En regnbåge består av enbart spektralfärger (alla spektralfärger dessutom). En RGB-bild av en regnbåge består av endast tre spektralfärger och däremellan en färgblandning som är en hyfsad aproximation av regnbågens färger.

Det är ungefär som ringsignalerna på moderna telefoner. En piezoelektrisk kristall kan inte producera samma ljud som en orgel eller en gitarr, men den kan låta ganska likt.

Först vill jag beklaga att jag grumlat vattnet något med ett par icke användbara praktiska exempel.
Min diskussionsutgångspunkt har hela tiden varit den tre-kanaliga modellen (tri-stimulus) för vårt färgseende. Jag har hela tiden varit medveten om att praktiska implementeringar innehåller kompromisser, så jag kan bara skylla mig själv.

Det går alltså inte att återge exakt samma färg som Natriumgult på en vanlig bildskärm. Det skall gå att se skillnad (åtminstone enligt den 'standard observer' som färg-koordinaterna utgår från). Men orsaken är inte att det inte går att blanda till samma färgintryck som det monokromatiska natriumljuset ger, med andra våglängder. Det går. Orsaken är att bildskärmar har duktigt breda blaffor till additiva blandfärger. Därför får färgen en aning vithalt. Därför kan en bildskärm inte heller återge någon annan färg som också motsvarar nån spektralfärg.

Skulle man vilja öka färggamuten måste man filtrera ut smalare blandfärger. Men då blir bildskärmen ljussvagare, varmare och drar mer ström. En ytterligare förbättring är att använda fler blandfärger, och antagligen kommer vi att få se t.ex fem-färgs skärmar så småningom. Tyvärr hoppade jag på att länka till ett sådant experiment, i fel sammanhang. Den fem-färgs LCD skärmen kan inte heller återge alla färger som motsvarar spektralfärger, kanske inte ens någon. Den har bara ett rejält större område färgområde än vår vanliga sRGB-skärm..

Så långt misstänker jag eskil och jag nu är överens.

Däremot verkar stötestenen fortfarande vara föreställningarna bakom färgbegreppet. Därför att, enligt mig, innehåller en typisk, praktisk bild av en regnbåge ingen färg alls, som motsvarar en spektralfärg. Om man skall vara noga.

Men det är ju klart, är det en bild sammansatt av tre överlappande projicerade monokromatiska bilder av ljus från tre monokromatiska ljuskällor, t.ex 650nm, 550nm och 465 nm, så är det ju riktigt. Men det är bara det att i just det fallet, finns alla färger som motsvarar spektralfärger i området 650 nm till 550 nm! Vad gäller de övriga, är de alla vithaltiga nära-färger, ända tills vi kommer till den sista ljuskällan, 465 nm, där vi har en spektralfärg igen. Tre spektralfärger alltså, och ett långt kontinuerligt fält av blandljus-färger som inte går att skilja från motsvarande spektrums spektralfärger, och därför är samma *färger*, och ett fält (motsvarande 550-465) av vithaltiga nära-färger.

Jag hoppas detta exemplet kan göra diskussionen klarare.
 
Fast med svårigheten med en trefärgs RGB skärm att återge vissa färger och att man kanske vill ha fem färger inte ett stöd åt att RGB inte är heligt. Det är praktiskt och kanske lättare att få till de flesta färgerna, men just R och G och B är inte absoluta - man KUNDE valt annat. Sony körde faktist RGBE (E=emerald [green]) i sin DSC F828 för att bättre återge vissa gröna nyanser.
 
Fast med svårigheten med en trefärgs RGB skärm att återge vissa färger och att man kanske vill ha fem färger inte ett stöd åt att RGB inte är heligt. Det är praktiskt och kanske lättare att få till de flesta färgerna, men just R och G och B är inte absoluta - man KUNDE valt annat. Sony körde faktist RGBE (E=emerald [green]) i sin DSC F828 för att bättre återge vissa gröna nyanser.

Man riskerar att blanda ihop två olika saker. Färgblandning resp. modellen för vad färger är.

Det är inget fel alls att använda fler blandfärger. Det kommer säkert. Hur spritt bruket blir är en annan sak. Precis som det dykt upp printrar med många färger. Men grejen är liksom, att precis som subtraktiv färgblandning med många grundfärger, så utgår den fortfarande från tristimulus-modellen med "r", "g" och "b" komponenter. Oavsett hur många grundfärger man använder strävar man ju fortfarande efter att blanda ihop en kombination som ger 'rätt' tre stimulanser i ögat&hjärnan.

Men du har helt rätt i att valet av grundfärger är inte heligt.
 
Regnbågens alla färger i RGB

Regnbågar har nämnts några gånger i diskussionen. De färger vi ser är inte kulörta ränder bredvid varann utan ett spektrum med färger som övergår i varann. Eller mer fysikaliskt, ljusets våglängd är kortast i den blå kanten och längst i den röda kanten och däremellan förekommer alla våglängder - i alla fall under optimala omständigheter.

Den tydligaste regnbågsbild jag någonsin sett har tagits av Bertil Hedbor och finns här på fotosidan, länk

http://www.fotosidan.se/gallery/viewpic/1802619.htm

Om man drar med datorns färgmätare med inställning rgb procenttal visas att värdena ändras hela tiden. Det gulaste jag hittade bestod av 100% Red, 99,6 % Green och 37 % Blue.

Om jag fattar rätt så visar detta att gult kan på ett övertygande sätt visas av 63 % rött och 63 % grönt som ger gult (och en del luminans) samt 37 % rött, 37 % grönt och 37 % blått som tillsammans ger luminans.
 
Jag tror att vi till sist börjar närma oss konsensus.

Hur breda blaffor till grundfärger som en skärm har beror mycket på vilken teknik som den använder. Moderna LCD-skärmar har ganska smala band runt 430, 550 och 620 nm. Se till exempel spektralfördelningen från en Samsung SyncMaster 613N. Inte särskilt breda blaffor jämfört med en CRT-skärm. En OLED-skärm har ännu smalbandigare färger och kör därför ofta med RGBW-matriser för att bättre kunna återge bredbandiga blandfärger eftersom bara tre spektralfärger inte räcker till.

Jag tror dock att vi kommer att få se RYGB-sensorer i digitalkameror innan vi får se fler färgkanaler på skärmen eller i datorn. Dagens RGB-sensorer har ju lika många gröna sensorer som röda och blå tillsammans. En kompromiss mellan den digitala värdens tre färgkanaler och ögats känslighet i intervallet 530-630 nm. Med gula fotosensorer i bayer-matrisen får man bättre frekvensupplösning i det intervallet. Dessutom minskar risken att man överexponerar den röda färgkanalen. Jag vet inte om någon annan har råkat ut för det men jag har noterat att just den röda färgkanalen gärna blir utfrätt när man fotar t.ex. en öppen eld eller något annat färgstarkt. Det beror på att den röda färgkanalen förstärks mer för att kompensera för att hälften så många röda sensorer som gröna egentligen är för lite. Med gula sensorer i matrisen får man en frekvenskupplösning som är mer likt ögats.
 
Jag vet inte om någon annan har råkat ut för det men jag har noterat att just den röda färgkanalen gärna blir utfrätt när man fotar t.ex. en öppen eld eller något annat färgstarkt. Det beror på att den röda färgkanalen förstärks mer för att kompensera för att hälften så många röda sensorer som gröna egentligen är för lite. Med gula sensorer i matrisen får man en frekvenskupplösning som är mer likt ögats.

Prova med att konvertera till Prophoto RGB istället för en snävare arbetsfärgrymd, som Adobe RGB eller sRGB. Rött blir då mycket sällan utfrätt.
 
Jag tror dock att vi kommer att få se RYGB-sensorer i digitalkameror innan vi får se fler färgkanaler på skärmen eller i datorn. Dagens RGB-sensorer har ju lika många gröna sensorer som röda och blå tillsammans. En kompromiss mellan den digitala värdens tre färgkanaler och ögats känslighet i intervallet 530-630 nm. Med gula fotosensorer i bayer-matrisen får man bättre frekvensupplösning i det intervallet. Dessutom minskar risken att man överexponerar den röda färgkanalen. Jag vet inte om någon annan har råkat ut för det men jag har noterat att just den röda färgkanalen gärna blir utfrätt när man fotar t.ex. en öppen eld eller något annat färgstarkt. Det beror på att den röda färgkanalen förstärks mer för att kompensera för att hälften så många röda sensorer som gröna egentligen är för lite. Med gula sensorer i matrisen får man en frekvenskupplösning som är mer likt ögats.

Ögats färgseende är tre kanaler. Av precis den anledningen är också färginformation 3-dimensionell. Och själva överlappningen av röd och grön känsligehet står för en betydande del av informationen på ett adekvat sätt. Jag förstår inte vad du anser att man vinner på "bättre frekvensuppdelning". Den bästa färginformationen som har bäst förutsättningar till att kunna användas till att återge så naturtrogna färger som möjligt, har filter vars transmission, och överlappning, efterliknar ögats känslighet. Då har man så exakt information som möjligt. Delar vi upp registreringen i fler band, får vi omedelbart betydande felkällor som inte kan hanteras eller kompenseras på nåt vettigt sätt. Varje ny överlappning är nu en felkälla. Medan den ursprungliga överlappningen inte är en felkälla, utan tvärtom genererar korrekt färginformation.

Vi kommer säkert att få se skärmar som använder fler blandfärger än tre. Vi har redan sett en del, bl.a det experiementet jag länkade till. Det finns skäl för fler blandfärger. Att registrera i fler band än tre, kan jag inte se nåt rimligt skäl till. Tvärtom kan jag se skäl till att inte göra det.

Att den röda färgkanalen skulle "förstärkas" för att "kompensera" för att det finns färre röda foto-siter än gröna är en felaktig föreställning.
Bildens pixlar skapas under demosaikeringen, och då används de röda och blå siterna dubbelt så ofta som de gröna. De gröna rutorna står alltså för den mesta informationen om form, kanter och ljus. Det är inget fel i det. Tvärtom efterliknar det ögat-hjärnan som gör på samma sätt. Ögat är dubbelt så känsligt för grönt ljus som för rött och blått. Notera väl att jag säger ögat, dvs vårt perceptionella intryck. Sen skalas förvisso färgkanalerna för att få rätt vitpunkt i slutänden, men behovet av detta kommer från vårt öga-hjärna systems förmåga att se 'konstant färg', samt i viss mån från att CMOS-sensorn inte har samma känslighet över våglängderna som våra ögon.

Vad gäller problemet med den utfrätta röda kanalen så framstår ju orsakerna ganska klart. Med en öppen eld har vi helt enkelt så kraftigt rött ljus att digitalkamerans egna system för att skifta vitpunkten är överstyrt. Har man då tagit en titt på Nikons filterkarakteristik, så har man också sett att den röda känsligheten, i änden, för riktigt långa röda våglängder (som elden producerar extra mycket av) är betydligt större än ögats. Vilket naturligtvis inte hjälper.
Boten i det här fallet blir att sätta på ett gammalt hederligt cyanfilter på objektivet. Då får man ju exponera mer, men det är just det man behöver göra, exponera blått och grönt mer, rött mindre.
 
Vad gäller problemet med den utfrätta röda kanalen så framstår ju orsakerna ganska klart. Med en öppen eld har vi helt enkelt så kraftigt rött ljus att digitalkamerans egna system för att skifta vitpunkten är överstyrt. Har man då tagit en titt på Nikons filterkarakteristik, så har man också sett att den röda känsligheten, i änden, för riktigt långa röda våglängder (som elden producerar extra mycket av) är betydligt större än ögats. Vilket naturligtvis inte hjälper.
Boten i det här fallet blir att sätta på ett gammalt hederligt cyanfilter på objektivet. Då får man ju exponera mer, men det är just det man behöver göra, exponera blått och grönt mer, rött mindre.

Mycket av dina resonemang ovan ställer jag upp på, men inte din lösning. Jag har fått flera sådana bilder som varit enkla att korrigera, om man använder Prophoto RGB som den färgrymd som bilden ska konverteras till. Om det inte fungerar beror det på att kameraprofilen har varit dåligt gjord.
 
Mycket av dina resonemang ovan ställer jag upp på, men inte din lösning. Jag har fått flera sådana bilder som varit enkla att korrigera, om man använder Prophoto RGB som den färgrymd som bilden ska konverteras till. Om det inte fungerar beror det på att kameraprofilen har varit dåligt gjord.

Okay, du har säkert rätt.
Jag utgick från att den röda kanalen var överstyrd, och i så fall kan ju ingen konvertering hjälpa, bara filter.
 
Okay, du har säkert rätt.
Jag utgick från att den röda kanalen var överstyrd, och i så fall kan ju ingen konvertering hjälpa, bara filter.

Jag brukar underexponera eller om möjligt ta två bilder i det läget. Det händer vid oväntade tillfällen och jag brukar inte kånka runt på färgfilter.
 
Man har bättre utgångsläge för vitbalansering i efterhand ju närmare i nivå de tre kanalerna ligger.
Vitbalansering innebär ju att man förstärker eller dämpar en eller två kanaler. (Sen kanske man måste förstärka eller dämpa allihopa med en gemensam faktor efter vitbalanseringen också, men det är sekundärt).
 
Man har bättre utgångsläge för vitbalansering i efterhand ju närmare i nivå de tre kanalerna ligger.
Vitbalansering innebär ju att man förstärker eller dämpar en eller två kanaler. (Sen kanske man måste förstärka eller dämpa allihopa med en gemensam faktor efter vitbalanseringen också, men det är sekundärt).

Självklart. Men har man inget filter funkar det ändå med underexponering. Och kan man ta två olika exponeringar på samma bild är det lätt att slå ihop dem.
 
ANNONS
Köp TZ99 hos Götaplatsens Foto