Annons

Displayport vs DVI

Produkter
(logga in för att koppla)

Flash_online

Aktiv medlem
Hej!

Jag behöver ert hjälp med att ta reda på om displayport. Jag läste någonstans att DP (displayport) klarar 10bit färgdjup medan DVI klarar upp till 8 bit.

Jag har en IPS skärm, U2711 och jag vet att den klarar visa 10 bit per kanal. Min fråga är om det märks om jag kör displayport istället för DVI ?

Dock har jag ej ett grafikkort som stöder det här, har nu ett nvidia GTX 260.

Skulle det se skillnad om jag skaffade ett ATI som har en displayport-utgång ?

Hoppas någon som är insatt i det här och kan besvara min fråga.
 
Skulle det se skillnad om jag skaffade ett ATI som har en displayport-utgång ?
Dom vanliga AMD Radeon-korten (dom heter inte ATI längre) använder sig av 8-bit på displayporten också. Det är bara FirePro-korten som kör 10-bit (och kanske 12, jag vet inte). Vissa tidigare generationers Radeon-kort gick att softmodda (hackade drivrutiner och annan firmware) så dom körde 10-bits output, då begränsningen till 8-bit var mjukvarubaserad, men jag vet inte om det går med 5000- och 6000-serierna.

Huruvida du skulle se nån skillnad lämnar jag åt nån annan som sett alternativen med egna ögon.
 
Dom vanliga AMD Radeon-korten (dom heter inte ATI längre) använder sig av 8-bit på displayporten också. Det är bara FirePro-korten som kör 10-bit (och kanske 12, jag vet inte). Vissa tidigare generationers Radeon-kort gick att softmodda (hackade drivrutiner och annan firmware) så dom körde 10-bits output, då begränsningen till 8-bit var mjukvarubaserad, men jag vet inte om det går med 5000- och 6000-serierna.

Huruvida du skulle se nån skillnad lämnar jag åt nån annan som sett alternativen med egna ögon.

Tack att du besvarade min fråga. Jag har tittat på Amd 6XXX/5XXX men hittade ej info om de stöder 10 bits...

Ja, jag avvaktar med det och se om någon annan här som ev kan svara min fråga.

Om man nu tänkte på vga-kontakt så var det ju självklart att man väljer att köra dvi till sin nya skärm. Nu funderar jag detsamma om jag inte utnyttjar fullt ut på min skärm pga mitt grafikkort har bara dvi utgång. DVI stryper ju och klarar bara levera 8 bit ut till skärmen.

Frågan är ju varför har skärmen displayport då ?

Vore ju annars bortkastad pengar med en ISP skärmen om jag inte utnyttjar den fullt ut. Jag har sökt runt men har ej hittat en vettig svar som säger att det blir bättre med bilder/photoshop/lightroom om man körs på displayport+skärmen som klarar 10bit.
 
Jag läste att Photoshop CS5 stöder inte 10 bit ännu, inte heller CS6 senare i framtiden enligt vad jag har läst i adobe forumet.

Länk här http://forums.adobe.com/message/2034801#2034801

Då låter det ju att det är inte en ide att köpa ett nytt grafikkort för jag jobbar bara med Photoshop, lightroom och zoombrowser/DPP.

Mjukvaran som begränsar ännu idag...

Rätta gärna mig om jag har fel ?
 
Nu kan jag absolut inget om detta,

men om nu nedanstående inlägg stämmer så varför betala en massa pengar på att uppnå någonting som man inte kan se

-----Inlägg-----

Since 10-bit depth is well beyond the human eye's ability to differentiate one shade from an adjacent shade, why the interest in it?

----slut inlägg----
 
Nu kan jag absolut inget om detta,

men om nu nedanstående inlägg stämmer så varför betala en massa pengar på att uppnå någonting som man inte kan se

-----Inlägg-----

Since 10-bit depth is well beyond the human eye's ability to differentiate one shade from an adjacent shade, why the interest in it?

----slut inlägg----

Det där gäller bara gråskala så vitt jag vet, inte färg.
 
Nu kan jag absolut inget om detta,

men om nu nedanstående inlägg stämmer så varför betala en massa pengar på att uppnå någonting som man inte kan se

-----Inlägg-----

Since 10-bit depth is well beyond the human eye's ability to differentiate one shade from an adjacent shade, why the interest in it?

----slut inlägg----

Med en bra skärm så kan man lätt se de olika nyanserna om man t.ex. gör en gradient i Photoshop. Med flera nyanser (bitar) så skulle jämna övergångar se mjukare ut.
Dessutom kommer det nyare skärmteknologier (OLED t.ex.) som har betydligt högre dynamiskt omfång än LCD. Dock är det ingen idé att utnyttja det dynamiska omfånget om man inte har fler än 8 bitars färger, för då skulle man bara se bandningen ännu tydligare.
 
Vi börjar med att helt enkelt svara på orginalfrågan i inlägget; det krävs dock två svar... Det första gäller om du inte kalibrerar/profilerar skärmen, och använder "rimliga" ljusstyrkor, dvs inte "max" på alla skärmiställningar:
NEJ, du ser ingen skillnad!
Det andra svaret gäller OM du kalibrerar och profilerar skärmen:
JA, du ser ganska lätt skillnad!

Folk brukar blanda ihop begreppen ganska rejält här. DVI-specifikationen innehåller utrymme för [10,10,10,2] bitar per pixel - 10-bit RGB och 2-bit alpha. DVI har alltså inga problem med 10-bit signaler. Displayport kan specas till vad som helst mellan 8-16 bit per färg, upp till 6 färger i begränsad upplösning om jag förstått det rätt. Att det är en displayport garanterar dock inte 10-bit färghantering, detta bestäms av hårdvaran uppströms - precis som med DVI-signalen.

Nästa sak som gärna "blandas bort" är det här med om man kan se detta eller inte. Här blandas äpplen, persikor och sjögurkor ihop när man diskuterar "bitar". En bit betyder olika saker beroende på var i kedjan man tittar på den. I råfilen är en bit linjär, den betyder precis vad den säger. I en sRGB eller ARGB jpg är den gamma-korrigerad, om "x" är bitvärdet betyder biten x^2.2. Om biten är skärmrelaterad (skickas i en kabel mellan dator>skärm) betyder den helt enkelt en ljus-styrka skärmen visar när värdet är"x". Detta verkliga [ljus-styrka per värde] vet du inte innan du kalibrerat skärmen.

De betyder inte samma sak, och kan inte heller blandas ihop i samma mening. En sRGB 8-bit jpg SKA VISAS som ca 12 linjära bitar i tonomfång, men är fortfarande "bara" 8 bitar i tonupplösning. Vad detta sedan blir på en skärm kan du bara gissa dig till, men föhoppningsvis stämmer skämen med gamma 2.2 - iaf inom ett felområde +/-50% per värde.

Vill du använda skärmprofilering kan alltså steg (hopp, luckor) om 2, ibland 3 bitar uppkomma i korrigeringen, du har då minskat tonupplösningen i detta tonavsnitt till 128 eller 85 lägen, dvs 7 eller 6.5 bitar. Det räcker inte för att signalen (ljusheten) ska bli kontinuerlig, dvs "utan synbara hack".

För övrig har ett mänskligt öga möjlighet att urskilja över 80.000:1 i DR inom en scen, detta motsvarar ca 16.3 bitar. Så uttalandet om "10 bitar räcker" gäller bara för väldigt lokala områden, mindre än 1º rymdvinkel i synfältet. Eller om vi begränsar ljushetsintervallet, "DR" som vi gör med en skärm (som ju normalt sett kan visa ett DR på ca 500:1).

Inom detta DR (500:1) räcker 8 bitar om de är rätt gamma-korrigerade precis nätt och jämnt till att inte ge synbara bandningseffekter, dvs skarpa kanter inom toningar. Men de räcker INTE om du börjar mecka med signalvärdena, som du gör när du profilerar skärmen.

I övrigt finns ingen anledning att välja 10-bit färg bara för sakens skull (i en bildpresentation) - men det är bra om skärmens styr-elekronik är på minst 10-12 bitar... Då slipper man en massa heltalsfel när skärmen räknar om in-signalen till det (vad det nu är) som sedan styr pixlarna på skärmen.

Och att PS inte stöder mer än 8-bit output betyder inte att man kastar pärlor till svinen... Det som PS spottar ur sig ska ju passera genom två instanser till i datorn innan något kommer fram till skärmen genom kabeln... Systemets färghantering (profilhantering) och grafik-kortets drivrutiner (som egentligen inte ska påverka datavärden, men kan göra det ändå...)

Dags att gå och lägga sig...
 
Intressant tråd här. Skärmen U2711 klarar enligt tester 96-98% Adobe RGB. Gäller det för displayport eller DVI? Om det gäller displayport så får vi typ 90% Adobe RGB med DVI eller hur går det till? Eller om det gäller DVI så får man mer med displayport framöver? Eller är det alltid 96-98% Adobe RGB som gäller då oavsett displayport eller DVI?

Om man kalibrerar skärmen så får man fram mer te.x. när man kör Photoshop och gör en 20x20 pixel dokument så fyller man på R G B = 2, 2, 2 i rutan så ska man kunna se skillnad mot svart bakgrund. Tryck på F tangentbord i Photoshop för att få svart bakgrund.
 
Intressant tråd här. Skärmen U2711 klarar enligt tester 96-98% Adobe RGB. Gäller det för displayport eller DVI? Om det gäller displayport så får vi typ 90% Adobe RGB med DVI eller hur går det till? Eller om det gäller DVI så får man mer med displayport framöver? Eller är det alltid 96-98% Adobe RGB som gäller då oavsett displayport eller DVI?

Om man kalibrerar skärmen så får man fram mer te.x. när man kör Photoshop och gör en 20x20 pixel dokument så fyller man på R G B = 2, 2, 2 i rutan så ska man kunna se skillnad mot svart bakgrund. Tryck på F tangentbord i Photoshop för att få svart bakgrund.

Backa tillbaka ett steg och läs Joakims svar igen. Det viktigaste han säger är: blanda inte samman äpplen, persikor och sjögurkor.

Färgrymden på skärmen har inte med vilket färgdjup som bilden visas. Färgomfånget beror på skärmens prestanda.

I och för sig blir detta med ett högre färgdjup mera intressant på skärmar med stort färgomfång, eftersom färgvalörerna ska spridas ut över ett större omfång.

Om du gör en färggradient från en grå ton till en maximalt mättad röd färg, en från grå till en maximalt mättad grön och samma för blått och sedan kollar om dessa toningar återges mjukt och nyanserat, utan bandningstendenser, då visar din skärm dina bilder med ett tillräckligt högt färgdjup. Om du ser bandningar i dessa toningar, då räcker det inte till och du skulle få ett bättre resultat om din signalkedja hela tiden klarade av att bibehålla signalen i 10 eller 12 bitar.

Det är många komponenter som ska fungera för att detta ska fungera och det lär dröja innan alla delar finns på plats.

Stefan
 
Aargh, nu hade man förstått äpplena och persikorna och så kommer det en jädrans sjögurka.

Hur vet man hur många bitar grafikkortet spottar ur sig? Jag har en skärm som klarar 111% av aRGB, den stödjer 10-bitar och den är ansluten med en DP-kabel.

/Karl
 
Aargh, nu hade man förstått äpplena och persikorna och så kommer det en jädrans sjögurka.

Hur vet man hur många bitar grafikkortet spottar ur sig? Jag har en skärm som klarar 111% av aRGB, den stödjer 10-bitar och den är ansluten med en DP-kabel.

/Karl

Har du ett videokort som stöder detta, har du ett OS som stöder detta?

Skulle inte oroa mig så mycket om det är 8 eller 10 bitar, kolla snarare att du har mjuka, nyanserade gradienter efter kalibreringen.

Stefan
 
Har du ett videokort som stöder detta, har du ett OS som stöder detta?

Skulle inte oroa mig så mycket om det är 8 eller 10 bitar, kolla snarare att du har mjuka, nyanserade gradienter efter kalibreringen.

Stefan

Windows 7 verkar stödja det, hurvida mitt grafikkort stödjer har jag inte lyckats lista ut än. Ett ATI readeon HD 3600.

Jag är jättenöjd med bilden inkl gradienter, men nu vet jag ju inte om den skulle kunna vara ännu bättre. Nu när man har investerat både tid och pengar i detta vill man ju få det så bra som möjligt.

/Karl
 
Har du ett vanligt konsumentkort (GeForce eller Radeon) så är det 8-bitar.

Läser man på nätet så verkar det inte vara så enkelt, en del Radeo verkar klara 10-bitar. Fast allt som står på nätet behöver ju inte vara sant.

Det verkar som om det får bli att shoppa nytt grafikkort också. Att ha en 10-bitars-skärm med ett 8-bitars-grafikkort är ju som att köra en bil med ordentlig turbo på 95-octanig bensin. Alltså något man inte skall göra.

/Karl
 
Läser man på nätet så verkar det inte vara så enkelt, en del Radeo verkar klara 10-bitar. Fast allt som står på nätet behöver ju inte vara sant.

Det verkar som om det får bli att shoppa nytt grafikkort också. Att ha en 10-bitars-skärm med ett 8-bitars-grafikkort är ju som att köra en bil med ordentlig turbo på 95-octanig bensin. Alltså något man inte skall göra.

/Karl

Inte alls. Att många hårdvarukalibrerade skärmar har ett högre färgdjup beror bara på att man vid bearbetningen i skärmen konverterar till det högre färgdjupet för att inte introducera bandningar. Så en skärm med 12 eller 14 bitars bildbehandling är inte beroende av att det kommer en 10-bitars signal fram till skärmen.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar