ANNONS
Annons

8- och 16-bitars färgdjup

Produkter
(logga in för att koppla)
Glock skrev:
Om ni inte tror på mig så kan ni väl ta och fråga en läkare. Vi kan bara uppfatta 256 steg av gråskala, så är det bara.

Så är det inte alls "bara".

Rita upp en tonande fyllning från svart till vitt över hela skärmen i Photoshop och prova att se hur det ser ut genom att ställa in olika bitdjup.

Ett normalt gammal grafikkort med 8 bitar per kanal kan som du säger bara visa 256 steg och det syns tydligt skillnaden mellan dessa steg.

Sen kom Matrox med sina grafikkort i Parheliaserien som kör 10-bitar per kanal just för att kunna visa fler steg som behöv t.ex vid visning av svartvita foto (röntgenfoto, sattelitbilder, annat).

Säg till nästa gång du är i Malmö så får jag väl visa skillnaden i bild mellan ett gammalt vanligt grafikkort och ett Matrox med 10-bitar per kanal (ATI kan också 10-bitar per kanal nuförtiden om jag inte minns helt fel).

Du kan ju läsa lite här så länge http://matrox.com/mga/products/tech_info/pdfs/parhelia/giga_color.pdf
 
Några räkneexempel

Antag att vi lever i en värld där det bara finns enkronor och inte ören. Du sätter in 1000 kronor på banken till 5% årlig ränta i fem år.

Eftersom det är procent, som ju betyder 100-delar, som skall räknas ut så börjar bankens dator (som enligt antagandet ovan bara kan räkna kronor) med att dividera innestående belopp med 100 och multiplicerar sedan med räntan som är 5. Sedan läggs detta till ditt saldo.

Saldo vid start: 1000 kr

Ränta år 1: 1000/100=10, 10*5=50
Saldo år 1: 1000+50=1050 kr

Ränta år 2: 1050/100=10, 10*5=50
Saldo år 2: 1050+50=1100 kr

Ränta år 3: 1100/100=11, 11*5=55
Saldo år 3: 1100+55=1155 kr

Ränta år 4: 1155/100=11, 11*5=55
Saldå år 4: 1155+55=1210 kr

Ränta år 5: 1210/100=12, 12*5=60
Saldo är 5: 1210+60=1270 kr


Antag istället att vi lever i en annan värld där du visserligen bara kan sätta in och ta ut pengar på banken i hela kronor. Men - internt arbetar banken dock med 100 gånger så hög noggranhet - i så kallade ören!

Saldo vid start: 1000 kr som växlas till 100000 öre (Och nej - här uppstår inga förluster)

Ränta år 1: 100000/100=1000, 1000*5=5000
Saldo år 1: 100000+5000=105000 öre

Ränta år 2: 105000/100=1050, 1050*5=5250
Saldo år 2: 105000+5250=110250 öre

Ränta år 3: 110250/100=1102, 1102*5=5510
Saldo år 3: 110250+5510=115760 öre

Ränta år 4: 115760/100=1157, 1157*5=5785
Saldo år 4: 115760+5785=121545

Ränta år 5: 121545/100=1215, 1215*5=6075
Saldo år 5: 121545+6075=127620 öre

Beloppet växlas åter till kronor och du får ut 1276 kr. Eftersom bankkassörskan normalt inte tillåts använda plåtsax blir du enligt uträkningen ovan blåst på en femtedels krona.

Teoretiskt belopp: 1000*1,05^5=1276,2815625

När vi under beräkningarnas gång använde en högre noggrannhet så blev reslutatet närmre det teoretiska värdet, trots att vi avslutade med att växla tillbaka till kronor. Av någon märklig anledning blir nog vissa (i varje fall på fotosidan.se ;-) upprörda över att ha förlorat 20 öre till banken vid växlingen i det sista exemplet ovan, men den största felet uppstod ju faktiskt i det första exemplet.

Lägg märke till att det i de två exemplen ovan bara existerar kronor IRL. Ändå lönare det sig att räkna med högre upplösning.


Nu går vid vidare med ett annat exempel:

Du har en läcker 8-bitarsbild inladdad i ditt bildbehandlingsprogram och använder dina nya favorit-plugins Newton-guck och Einstein-flum (Patents Pending). Newton-guck innebär rent matematiskt att ett pixelvärde divideras med 3 och Einstein-flum att pixelvärdet multipliceras med 3.


Låt oss titta på en av pixlarna i din bild som t.ex. råkar ha värdet 129 och vad som händer när du har kört Newton-guck tre gånger följt av Einstein-flum tre gånger.

129/3=43
43/3=14
14/3=4

(Här kanske du gör lite annat som inte råkar påverka just den pixel vi granskar i exemplet)

4*3=12
12*3=36
36*3=108

Om du istället konverterar bilden till 16-bitar först så får din pixel värdet 129*256=33024.

33024/3=11008
11008/3=3669
3669/3=1223

1223*3=3669
3669*3=11007
11007*3=33021

Bilden konverteras slutligen till 8-bitar och din pixel får värdet 33021/256=128

Du får alltså en kraftigt färgförskjutning med 8 bitar men klarar dig nästan helt oskadd om du går över och arbetar i 16 bitar.

Växlingen mellan kronor och ören eller 8-bitarspixlar och 16-bitarspixlar kan göras nära nog förlustfritt beroende på att de har en gemensam bas. I första fallet 10 och i andra fallet 2.

/Thomas
 
-Thomas
vist det är sent, Vist det är natt men inte har jag någonsin haft så tråkigt att jag satt mig och skrivit en ekonomi examen...
 
Angående konverteringen i Photoshop, jag använder förvisso 6.0 men är det likadant för er andra när ni kör bilden 16bit läge så försvinner en del finesser som lager och markering blir helt tomma samt 1/3 av filterna är borta o s v ????
 
Hejduglade skrev:
Angående konverteringen i Photoshop, jag använder förvisso 6.0 men är det likadant för er andra när ni kör bilden 16bit läge så försvinner en del finesser som lager och markering blir helt tomma samt 1/3 av filterna är borta o s v ????

I CS är fungerar lager och en mängd andra funktioner i 16-bitars.
 
Walle skrev:
Men herre gud, Joseph! Ge dig!

Det handlar inte om hur många steg av en gråskala det mänskliga ögat kan uppfatta! Det handlar om hur mycket information man förlorar vid redigering av bilden!

Bevisligen så förlorar man mer information om man behandlar bilden i 8-bitars färgdjup än i 16-bitars färgdjup.

Säg att du vid redigeringen "förlorar" 3 bitar. Om du då utgår från en 8-bitarsbild så har du bara 5 bitar kvar. Om du utgår från en 12-bitarsbild så har du 9 bitar kvar. Sen när du konverterar tillbaka till 8-bitar så har du 8-bitar i bilden, inte 5. En 5-bitars gråskala ger 32 olika nyanser. En 8-bitars gråskala ger 256 olika nyanser. Vilket är bäst?...

Det vet jag väl för fan, men folk skulle ju göra sig lustiga på min bekostnad över det faktum att ögat bara KAN uppfatta 256 nyanser mellan svart och vitt!

16-bitar ÄR bättre än 8-bitar, det är inget snack om den saken. Men faktum är att man inte jobbar med 16-bitar inom repro- och tryckbranschen, man jobbar med PDF:er som slutprodukt innan tryck och skiter fullständigt i huruvida man förlorar data eller inte, för det syns inte i tryck eftersom du inte kan uppfatta skillnaderna med ögat!

Jag har alltid jobbat med CMYK 8-bitars TIFF eller EPS till tidningar som Vecko Revyn, Amelia, Buffé, Damernas Värld, MCM, Svensk Golf, SLITZ, Vagabond m.fl.

Ta reda på hur stor färgrymden är hos en tryckpress, den är skrämmande liten. Där räcker inte ens 8-bitar kan jag berätta. Så när ni konverterar med ICC-profiler för tryck, bli inte chockade om ni ser bandning i bilderna.
 
Off-Topic

Eftersom Thomas fick sitt svar på sin fråga mycket tidigare så finns det väl ingen vits att fortsätta debatera detta ämne?

16-bitar är bättre än 8-bitar! Det är en självklar logisk vetskap.

Sen ville jag bara röra om lite i grytan och ifrågasätta arbetet med 16-bitars bilder, då det aldrig sker inom den branschen där det borde göras det. Men det fick man tydligen inte göra, då ska man få skäll för det. Jag ber om ursäkt om jag nämde det vetenskapliga faktum att ögat bara kan uppfatta 256 gråskalor. Ni som tror annat får fråga en läkare, så behöver vi inte disktuera detta till leda här. Ska jag också be om ursäkt för att jag tycker att jobba i 16-bitar är som att elda för kråkorna?

Bara för att funktionen finns där, så är det väl klart att vissa måste använda sig av den. Men den har ju inte riktigt varit användbar förrän nu, i Adobe Creative Suite. Hur klarade ni er förut?

Hur många bitar består ett negativ eller ett dia av? De scannas i både 36- och 48-bitar, men ser likförbannat ut som skit från vissa fotografer.

Nej ni, det finns inga rätt och fel här. Allt är hur man själv uppfattar det och ingen ska ta det ifrån en. Jag tycker som jag tycker, sen får ni tycka som ni tycker, så blir det bra ska ni se.

Det är skillnad mot förr, då var det ingen som hade såna är I-landsproblem med sina bilder som alla verkar ha idag.
De scannades rakt av, bara ställda med svart och vitt, så fick det vara bra sen. I det gamla Crossfield-systemet, kunde man gå och fika medan datorn roterade bilden några grader, ifall den hamnat fel vid scanningen. Då var hårddiskarna på 320MB och stora som tvättmaskiner!

Lite kuriosa, men det är kul när man sätter saker i ett perspektiv. Då kanske man inser vilka löjliga problem man egentligen har. Som t.ex. är det bättre att jobba i 16-bitar än 8-bitar, hjälp mig, jag vet inte?! Det är väl självklart att det är bättre, rent kvalitetsmässigt, men inte tidsmässigt eller tryckmässigt.
Skicka en 16-bitars bild till ett tryckeri och den görs direkt om från whatever-format du har till "8-bitars CMYK JPEG HIGH" i AGFA Apogee. Men vem bryr sig, du ser ändå ingen skillnad! Jag vet, för detta är mitt jobb!

Lycka till!
 
uge skrev:
hrm, nytt för mig. Och jag har jobbat med företag som du nämner i mer än 20 år. E det möjligen så att nån missat den lilla innovationen: provtryck. Funkar bra för att slippa sand från lådan..

Fotografen ser sällan tidningarnas redaktionella sidor, vilket du borde veta om du jobbar som Desktop Publisher på en reprofirma OCH har kundkontakt.

Nej, du är ju AD, vad vet du om sånt? Den erfarenheten jag har av ADs är att de skiter i vilket bara det blir gjort så att de kan gnälla på repron! Har inte mycket till övers för Art Directors i en infekterad bransch. Inget personligt, gillar er bara inte!
 
Senast ändrad:
magdan skrev:
Så är det inte alls "bara".

Rita upp en tonande fyllning från svart till vitt över hela skärmen i Photoshop och prova att se hur det ser ut genom att ställa in olika bitdjup.

Ett normalt gammal grafikkort med 8 bitar per kanal kan som du säger bara visa 256 steg och det syns tydligt skillnaden mellan dessa steg.

Sen kom Matrox med sina grafikkort i Parheliaserien som kör 10-bitar per kanal just för att kunna visa fler steg som behöv t.ex vid visning av svartvita foto (röntgenfoto, sattelitbilder, annat).

Säg till nästa gång du är i Malmö så får jag väl visa skillnaden i bild mellan ett gammalt vanligt grafikkort och ett Matrox med 10-bitar per kanal (ATI kan också 10-bitar per kanal nuförtiden om jag inte minns helt fel).

Du kan ju läsa lite här så länge http://matrox.com/mga/products/tech_info/pdfs/parhelia/giga_color.pdf

Jag jobbar med Macar, de använder sig av GeForce, vilket också ATI ägs av, om jag inte missminner mig?
Det spelar ingen roll om kortet kan visa fler bitar, du kan ändå inte uppfatta mer än 256 steg mellan svart och vitt. Ta reda på hur ögat är uppbyggt så förstår du att ögat bara kan se så få nyanser mellan mörkt och ljust, och att det kan uppfatta miljoner nyanser av färger.
 
Re: Några räkneexempel

Tack! (kanske ingenjörsskadad men jag tyckte det var illustrativt).

200cm skrev:
...

129/3=43
43/3=14
14/3=4

(Här kanske du gör lite annat som inte råkar påverka just den pixel vi granskar i exemplet)

4*3=12
12*3=36
36*3=108

Om du istället konverterar bilden till 16-bitar först så får din pixel värdet 129*256=33024.

33024/3=11008
11008/3=3669
3669/3=1223

1223*3=3669
3669*3=11007
11007*3=33021

Bilden konverteras slutligen till 8-bitar och din pixel får värdet 33021/256=128

Du får alltså en kraftigt färgförskjutning med 8 bitar men klarar dig nästan helt oskadd om du går över och arbetar i 16 bitar.

/Thomas [/B]
 
Glock skrev:
Jag jobbar med Macar, de använder sig av GeForce, vilket också ATI ägs av, om jag inte missminner mig?

GeForce är ett varumärke som ägs av Nvida medan ATI är ett konkurerande företag till Nvida med ett eget grafikkorts varumärke som heter Radeon.
 
joseph:

ehum.. jag har oxå mina rejält dåliga dagar då jag beter mig aggro, otrevligt och extremt besserwissrigt.
men jag försöker hålla i mig och åtminstone inte vara långsint och spela martyr eller vara extremt fördomsfull och dra ut på en lång och otrevlig diskussion över flera dagar.

lugna ner dig nu och inse att du skjuter dig själv i foten om du skriver så här hätskt.
du får faktiskt inse att "röra om i grytan" ger "skäll" som resultat.
du fick helt enkelt det du bad om.

du skriver bl.a: "Nej, du är ju AD, vad vet du om sånt? Den erfarenheten jag har av ADs är att de skiter i vilket bara det blir gjort så att de kan gnälla på repron! Har inte mycket till övers för Art Directors i en infekterad bransch. Inget personligt, gillar er bara inte!"

blir du verkligen förvånad över att folk reagerar som dom gör på dina inlägg?
ser du själv även hur du kommer tolkas som person utifrån hur du skriver?
det spelar ju ingen roll huruvida du har rätt eller ej, det är din "ni är ju dumma i huvudet om ni inte tycker som jag"-inställning som är fullkomligt onödig och bara retar folk och ruinerar ditt ev. rykte.

jag vet att jag själv har mina dagar, men jag tipsar ändå: var lite ödmjuk för 17.
det är jättebra att du informerar, men släpp hätskheten!
det tjänar ingenting till att spruta galla över AD's bara för att du själv har dålig erfarenhet.
det bara sätter dig själv i dålig dager eftersom folk snarare kommer anta att du har svårt att ta folk på rätt sätt, vilket oxå din ton i forumet "bevisar".

ta å lugna ner dig, ta en kopp kaffe eller nåt och fika istället för att hetsa upp dig.
det är bara dumt för hjärtat ditt.
låt tråden vara på "ignore"... sluta läs!
funkar alltid för mig, jag tror det förlänger mitt liv faktiskt. ;o)
 
pzackes skrev:
GeForce är ett varumärke som ägs av Nvida medan ATI är ett konkurerande företag till Nvida med ett eget grafikkorts varumärke som heter Radeon.

Ja, så kanske det var, tack för upplysningen! :)
Läste för en tid sedan på MacWaorlds hemsida att de planerade ett sammangående, så man vet aldrig. :)
 
Re: Off-Topic

Glock skrev:
.

Det är skillnad mot förr, då var det ingen som hade såna är I-landsproblem med sina bilder som alla verkar ha idag.
Lycka till!

Tycker det var en av de bästa reflektioner som gjorts här på FS.
En mening som kan vara värd att tänka på.
Skulle man tänka den tanken jämt skulle väl alla frågor om Canon vs nikon analogt vs digitalt o s v bli meningslösa.
Nåja, nu är vi ju ett I-land och lever med mycket små problem som måste uppförstoras för att få nån relevans.
Fastnar i fällan själv då och då.
Tror ändå att man ska tänka på Joseph's mening ibland.
Mvh/-Anders
 
Glock skrev:
Det vet jag väl för fan, men folk skulle ju göra sig lustiga på min bekostnad över det faktum att ögat bara KAN uppfatta 256 nyanser mellan svart och vitt!

Själv har jag fakta som säger att ögat klarar att se ungefär 500 nyanser men eftersom ögat inte är linjärt så krävs det 10.000 om man använder en linjär skala.

Tryckt media klarar säkrt inte mer än 256nyanser men det beror på pappret och inte på ögat.
 
Till Joseph:

8-bit RGB innehåller mer information än CMYK. Det är vi väl överrens om. Bildkvaliteten blir bättre om man skärper och färgställer innan man konverterar från RGB till CMYK. Det hoppas jag också att vi är överrens om.
För att få OPTIMALT resultat på svåra bilder så krävs det ibland att man använder sig av 16-bitar.

Precis som du så föredrar jag 8-bitar och använder mig sällan av 16-bitar i prepressarbetet, men för den kompetente fotografen som gör förjusteringar så kan det göra stor skillnad.

Det är ett helvete att rätta till generic CMYK:ade bilder som ser riktigt dåliga ut. Det går bättre med 8-bitars RGB och bra mycket bättre med 16-bitars RGB.
 
Copy_Con skrev:
Till Joseph:

8-bit RGB innehåller mer information än CMYK. Det är vi väl överrens om. Bildkvaliteten blir bättre om man skärper och färgställer innan man konverterar från RGB till CMYK. Det hoppas jag också att vi är överrens om.
För att få OPTIMALT resultat på svåra bilder så krävs det ibland att man använder sig av 16-bitar.

Precis som du så föredrar jag 8-bitar och använder mig sällan av 16-bitar i prepressarbetet, men för den kompetente fotografen som gör förjusteringar så kan det göra stor skillnad.

Det är ett helvete att rätta till generic CMYK:ade bilder som ser riktigt dåliga ut. Det går bättre med 8-bitars RGB och bra mycket bättre med 16-bitars RGB.

Absolut! Jag håller med dig!
 
Glock skrev:
Jag jobbar med Macar, de använder sig av GeForce, vilket också ATI ägs av, om jag inte missminner mig?
Det spelar ingen roll om kortet kan visa fler bitar, du kan ändå inte uppfatta mer än 256 steg mellan svart och vitt. Ta reda på hur ögat är uppbyggt så förstår du att ögat bara kan se så få nyanser mellan mörkt och ljust, och att det kan uppfatta miljoner nyanser av färger.

Du har fel igen. ATI äger inte Geforce. Geforce är en produkt från Nvidia.

Macar finns att köpa med grafikkort från båda tillverkarna. (Min Mac har Geforce från Nvidia, vilket ger bara 8-bitars gråskala, min PC har Matrox grafikkort som ger mig 10-bitars gråskala)

Men jag ger mig, du har rätt jag har fel. Sitt du kvar med dina skitgamla maskiner som bara kan visa 256 steg. Allt var bättre förr, det sa min farfar också.

Jag får väl stå ut med att jag har bättre bild på min skärm med ett modernt grafikkort från Matrox trots att jag inte alls enligt Josephs vetenskapslära kan se skillnad.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar