Vi börjar med att helt enkelt svara på orginalfrågan i inlägget; det krävs dock två svar... Det första gäller om du inte kalibrerar/profilerar skärmen, och använder "rimliga" ljusstyrkor, dvs inte "max" på alla skärmiställningar:
NEJ, du ser ingen skillnad!
Det andra svaret gäller OM du kalibrerar och profilerar skärmen:
JA, du ser ganska lätt skillnad!
Folk brukar blanda ihop begreppen ganska rejält här. DVI-specifikationen innehåller utrymme för [10,10,10,2] bitar per pixel - 10-bit RGB och 2-bit alpha. DVI har alltså inga problem med 10-bit signaler. Displayport kan specas till vad som helst mellan 8-16 bit per färg, upp till 6 färger i begränsad upplösning om jag förstått det rätt. Att det är en displayport garanterar dock inte 10-bit färghantering, detta bestäms av hårdvaran uppströms - precis som med DVI-signalen.
Nästa sak som gärna "blandas bort" är det här med om man kan se detta eller inte. Här blandas äpplen, persikor och sjögurkor ihop när man diskuterar "bitar". En bit betyder olika saker beroende på var i kedjan man tittar på den. I råfilen är en bit linjär, den betyder precis vad den säger. I en sRGB eller ARGB jpg är den gamma-korrigerad, om "x" är bitvärdet betyder biten x^2.2. Om biten är skärmrelaterad (skickas i en kabel mellan dator>skärm) betyder den helt enkelt en ljus-styrka skärmen visar när värdet är"x". Detta verkliga [ljus-styrka per värde] vet du inte innan du kalibrerat skärmen.
De betyder inte samma sak, och kan inte heller blandas ihop i samma mening. En sRGB 8-bit jpg SKA VISAS som ca 12 linjära bitar i tonomfång, men är fortfarande "bara" 8 bitar i tonupplösning. Vad detta sedan blir på en skärm kan du bara gissa dig till, men föhoppningsvis stämmer skämen med gamma 2.2 - iaf inom ett felområde +/-50% per värde.
Vill du använda skärmprofilering kan alltså steg (hopp, luckor) om 2, ibland 3 bitar uppkomma i korrigeringen, du har då minskat tonupplösningen i detta tonavsnitt till 128 eller 85 lägen, dvs 7 eller 6.5 bitar. Det räcker inte för att signalen (ljusheten) ska bli kontinuerlig, dvs "utan synbara hack".
För övrig har ett mänskligt öga möjlighet att urskilja över 80.000:1 i DR inom en scen, detta motsvarar ca 16.3 bitar. Så uttalandet om "10 bitar räcker" gäller bara för väldigt lokala områden, mindre än 1º rymdvinkel i synfältet. Eller om vi begränsar ljushetsintervallet, "DR" som vi gör med en skärm (som ju normalt sett kan visa ett DR på ca 500:1).
Inom detta DR (500:1) räcker 8 bitar om de är rätt gamma-korrigerade precis nätt och jämnt till att inte ge synbara bandningseffekter, dvs skarpa kanter inom toningar. Men de räcker INTE om du börjar mecka med signalvärdena, som du gör när du profilerar skärmen.
I övrigt finns ingen anledning att välja 10-bit färg bara för sakens skull (i en bildpresentation) - men det är bra om skärmens styr-elekronik är på minst 10-12 bitar... Då slipper man en massa heltalsfel när skärmen räknar om in-signalen till det (vad det nu är) som sedan styr pixlarna på skärmen.
Och att PS inte stöder mer än 8-bit output betyder inte att man kastar pärlor till svinen... Det som PS spottar ur sig ska ju passera genom två instanser till i datorn innan något kommer fram till skärmen genom kabeln... Systemets färghantering (profilhantering) och grafik-kortets drivrutiner (som egentligen inte ska påverka datavärden, men kan göra det ändå...)
Dags att gå och lägga sig...