Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Grafikkort

Produkter
(logga in för att koppla)

Lars S

Aktiv medlem
Har en PC med grafikkort NVIDIA Geforce 7100 GS (PCI-Express), och ska köpa en ny bildskärm (Eizo, inte bestämt vilken). I specifikationerna för de skärmar jag funderar på står det b.la. "A graphics board and software which support 10-bit output are necessary for 10-bit display"

Antar mitt gamla grafikkort inte klarar detta, men hittar inget om det i specarna. Något tips om ett lämpligt grafikkort? Enbart för bildbehandling, spelar inga spel, ingen video etc.

När jag byter grafikkort, kan jag råka ut för andra problem, tex med kraftaggregatet? Ser att vissa grafikkort drar rätt mycket ström.

Tacksam för tips!
 
Har en PC med grafikkort NVIDIA Geforce 7100 GS (PCI-Express), och ska köpa en ny bildskärm (Eizo, inte bestämt vilken). I specifikationerna för de skärmar jag funderar på står det b.la. "A graphics board and software which support 10-bit output are necessary for 10-bit display"

Antar mitt gamla grafikkort inte klarar detta, men hittar inget om det i specarna. Något tips om ett lämpligt grafikkort? Enbart för bildbehandling, spelar inga spel, ingen video etc.

När jag byter grafikkort, kan jag råka ut för andra problem, tex med kraftaggregatet? Ser att vissa grafikkort drar rätt mycket ström.

Tacksam för tips!

http://www.inet.se/recensioner/5408676/powercolor-radeon-hd5750-1gb

skulle nog räcka till dig beror hur din budget ligger. kortet står en summa (som detta 450w) men man brukar inte behöva ha så kraftigt sen tror jag att datorn din klarar detta då de inte e något kort som slukar ström
 
ingen betydelse

Vad jag har förstått så har grafikkortet inte någon som helst betydelse när det gäller stillbilder. Rörliga bilder är något annat, men det skulle du inte köra så....
När det gäller 10 bit vet jag inte vad det menas, kanske färgdjupet, men det kan någon annan kanske svara på.
 
Senast ändrad:
När t.ex. Eizo skriver 10-bit eller 12-bit på specarna för sin senaste skärm så avses det R, G och B för sig. Inte att blanda med t.ex. 24-bit TrueColor som är 8bit R, 8bit G, 8bit B. Skärmtillverkare av billiga märken kan missvisande skriva 24-bit men menar då hela RGB.

För en skärm som Eizo på 10-bit så skall du minst ha ett 30-bits kort från t.ex. nvidia eller ett 36-bits kort om du tittar på Eizo's senaste. Där diskuteras det mer än 1 miljard färger med 12-bit mot 8 bit/True color på 16,7 miljoner.

Ang. nätaggregat så kan det behövas ett kraftigare. Flera av nätagg's tillverkarna har kalkylatorer för detta på sina sidor. Men ca 650-750 watt täcker de flesta behov. Fler dvd brännare och vissa usb enheter utan egen strömmatning kan sluka en hel del watt till skillnad mot hårddiskar som knappt drar 1 watt vardera i dag.
 
När t.ex. Eizo skriver 10-bit eller 12-bit på specarna för sin senaste skärm så avses det R, G och B för sig. Inte att blanda med t.ex. 24-bit TrueColor som är 8bit R, 8bit G, 8bit B. Skärmtillverkare av billiga märken kan missvisande skriva 24-bit men menar då hela RGB.

För en skärm som Eizo på 10-bit så skall du minst ha ett 30-bits kort från t.ex. nvidia eller ett 36-bits kort om du tittar på Eizo's senaste. Där diskuteras det mer än 1 miljard färger med 12-bit mot 8 bit/True color på 16,7 miljoner.

Vilka grafikkort stöder 10-bit per kanal från t.ex. Nvidia, hittar ingen specifikation på det? Hur aktiverar man 10-bitar per kanal, i Windows ser jag bara True color, och om man lyckas aktivera det vilka program stöder det? Alla bilder och grafik är ju idag 8 bitars.
 
hur mycket behövs....

Frågan kanske är hur mycket behöver du? Om du kör jpeg så är max 8 bitar per kanal i färgdjup, och som Magnus här berättar så har du säkert 10 bitar i din nuvarande uppsättning. Så det förutsätter att du kör RAW för att komma upp i 10 bitar, och det är förmodligen inte så att det inte funkar, och det är nog inte jättestor skillnad om det mot förmodan skulle bara vara 8 bitar på ditt kort. Prova först se vad som händer innan du lägger pengar på ett nytt kort.
 
Vilka grafikkort stöder 10-bit per kanal från t.ex. Nvidia, hittar ingen specifikation på det? Hur aktiverar man 10-bitar per kanal, i Windows ser jag bara True color, och om man lyckas aktivera det vilka program stöder det? Alla bilder och grafik är ju idag 8 bitars.

Det är windows med drivrutiner och rätt anslutning. D.v.s. hdmi eller displayport som ställer in det.
Sen 2000 eller XP har windows 10-bit färgdjup och sen Vista 16-bitars.

Verkar som inte 10-bitars stöd kom med CS 5 trotts önskemålemn om det så man är fortfarande hänvisad till 3'je parts plugin eller andra program.

Både nvidia Quadro och Ati Fire korten har stöd för 10-bitar samt en hel del av "spelkorten". Brukar stå på de bra tillverkarnas sidor, inte Ati eller nvidias. Minns jag inte helt galet så är det verision av Open GL som bestämmer hur många bitars färgdjup du kan visa med ett grafikkort. Kan stå nått som HC (High Color support) angivet isf. 10-Bit stöd.
 
Den stora vinsten med fler bitar ligger i möjligheten att konvertera färgskalan från vad bilden innehåller till vad skärmen kan presentera utan att förlora antalet möjliga färger (nivåer). Om vi genomgående använder 8 bitar/kanal (Obs!) men behöver transformera bilden från säg AdobeRGB till skärmprofilen kanske vi bara har kvar 6-7 användbara bitar per kanal, ganska stor skillnad i praktiken. Om skärmen kan hårdvarukalibreras och har fler än 8 bitar internt sker översättningen förlustfritt i skärmen istället för av grafikkortet.
 
Sen 2000 eller XP har windows 10-bit färgdjup och sen Vista 16-bitars.

Nu används inte de extra bitarna hos Win 2000/XP till färginformation (om du tänker på 32 bit läget i kontrollpanelen), utan till något som kallas för "alpha channel", ett sätt att möjliggöra överlappande fönster på ett enkelt och resurseffektivt sätt.
 
Nu används inte de extra bitarna hos Win 2000/XP till färginformation (om du tänker på 32 bit läget i kontrollpanelen), utan till något som kallas för "alpha channel", ett sätt att möjliggöra överlappande fönster på ett enkelt och resurseffektivt sätt.

Nej, jag skriver inte om 16 eller 32 bitars läge. Som förr kallades high color och true color.
Windows har haft 10 bitars färgdjup länge, Mac OSX likaså men grafikkort och skärmar som klarar av detta har inte börjat bli konsumentprodukter förän sista året eller två.
 
Vad jag har förstått så har grafikkortet inte någon som helst betydelse när det gäller stillbilder. Rörliga bilder är något annat, men det skulle du inte köra så....
När det gäller 10 bit vet jag inte vad det menas, kanske färgdjupet, men det kan någon annan kanske svara på.

Det där stämmer inte helt. Moderna versioner av (exempelvis) Photoshop är ju OpenGL-accelererade vilket gör att en hel del operationer går betydligt snabbare att genomföra om man har ett grafikkort som stöder detta.
 
Det där stämmer inte helt. Moderna versioner av (exempelvis) Photoshop är ju OpenGL-accelererade vilket gör att en hel del operationer går betydligt snabbare att genomföra om man har ett grafikkort som stöder detta.

Det där stämmer säkert, precis som att processorkapaciteten är avgörande för hur fort det går. Men bildkvalitén blir nog den samma för den som orkar vänta....
 
Det där stämmer säkert, precis som att processorkapaciteten är avgörande för hur fort det går. Men bildkvalitén blir nog den samma för den som orkar vänta....

Så här skriver Adobe under System requirements för Ps CS5, både för MAC & WIN

"•Some GPU-accelerated features require graphics support for Shader Model 3.0 and OpenGL 2.0"

Liknande text och krav fanns redan för Ps CS4.
 
Ang. nätaggregat så kan det behövas ett kraftigare. Flera av nätagg's tillverkarna har kalkylatorer för detta på sina sidor. Men ca 650-750 watt täcker de flesta behov. Fler dvd brännare och vissa usb enheter utan egen strömmatning kan sluka en hel del watt till skillnad mot hårddiskar som knappt drar 1 watt vardera i dag.

Man ska aldrig stirra sig blind på Watten. Hur många är det inte som blir blåsta på tex hemmabio förstärkare.
För grafikkort så är det antar Ampere vid 12 V som spelar roll. Detta för att graffekortet ska orka prestera max men det är framförallt vid spel som du belastar kortet hårt.
Bra nätagg behöver inte så hiskeligt mycket Watt...
 
Man ska aldrig stirra sig blind på Watten. Hur många är det inte som blir blåsta på tex hemmabio förstärkare.
För grafikkort så är det antar Ampere vid 12 V som spelar roll. Detta för att graffekortet ska orka prestera max men det är framförallt vid spel som du belastar kortet hårt.
Bra nätagg behöver inte så hiskeligt mycket Watt...

När jag räknat 650-750 watt så tog jag inte i. Finns nättagg för SLI/Crossfire bestyckade spelmaskiner eller Workstation på över 1200 watt i dag, på webhallen eller vilken konsument-databutik som helst.

Till beräkning får man även ta med kondensatorers åldrande, uppskattas normalt till10% effektförlust/år på ett normalt nätagg. Ett märkeslöst skitaggregat tappar ännu mer p.g.a. dåliga kondensatorer. Så av 650 watt är det inte ens 500 wattts effekt kvar efter 3 års normalt bruk. En normal stationär dator i dag med 1 ibland 2 DVD/BL ray brännare, 2-3 hårddiskar, inbyggt raidstöd, kortläsare, nätverk, ljud och några usb enheter/diskar utöver råtta och tgb samt ett normalt grafikkort kräver sina 450 W om det inte skall belastas över 90%.
 
Så här skriver Adobe under System requirements för Ps CS5, både för MAC & WIN

"•Some GPU-accelerated features require graphics support for Shader Model 3.0 and OpenGL 2.0"

Liknande text och krav fanns redan för Ps CS4.

Jo, så är det......jag höll med om det redan i förra inlägget...

Men denna tråden handlar om man kan köpa en 10 bitars skärm utan att byta grafikkort. Jag tror det, visserligen kanske det tar det längre tid (om han använder CS4-5, men det vet vi inte) och möjligtvis så stödjer inte grafikkortet detta (troligtvis gör det det). Och kanske han inte ens har användning för 10 bitar om han kör jpeg, (det vet vi inte heller).

Så att rekommendera honom att byta grafikkort och kanske även nätaggregat känns väldigt onödigt...
 
Jo, så är det......jag höll med om det redan i förra inlägget...

Men denna tråden handlar om man kan köpa en 10 bitars skärm utan att byta grafikkort. Jag tror det, visserligen kanske det tar det längre tid (om han använder CS4-5, men det vet vi inte) och möjligtvis så stödjer inte grafikkortet detta (troligtvis gör det det). Och kanske han inte ens har användning för 10 bitar om han kör jpeg, (det vet vi inte heller).

Så att rekommendera honom att byta grafikkort och kanske även nätaggregat känns väldigt onödigt...

Det råkar vara Lars fråga som han började denna tråd med och inte är den formulerad som du skrev.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar