Annons

Att bygga en dator för bildbehandling (ständigt uppdaterad)

Produkter
(logga in för att koppla)
Har inte GPU´n någonting med bildbehandling idag? Jag har nämligen en 2 år gammal laptop(acer 4820TG) med i5-450 2.4Ghz + Ati HD5650 i min hemdator. I min tjänstedator(HP) har jag en exakt likadan processor, men med ett Intel 3000 grafikkort. Lika mycket minne, 4Gb samt win 7 i båda maskinerna.

I min hemdator kan jag justera foton genom att dra i reglagen/filter utan någon som helst tidsfördröjning, men i tjänstedatorn laggar justeringen med en halvsekund ungefär. Klart irriterande är det iallafall när man försöker fintrimma bilderna.

Jag har då trott att det den mycket bättre GPU´n som är anledningen till den överlägsna prestandan. Men det kan även vara moderkortets minnesbussar som begränsar...?

Det vore ju iofs ingen världsnyhet att en stor tillverkare av datorer parar ihop en bra cpu med ett billigt moderkort, petar in 8Gb slött minne och då får en lättsåld maskin.

Det är lite så att svaret är både ja och nej. GPU har tekniskt sett aldrig haft speciellt mycket med bildbehandling att göra. GPU är i grund och botten en extra hjälpprocessor för 3D-rendering. Medan 2D-grafik (det vi typiskt håller på med) sköts i CPU.

Sedan är det förstås inte riktigt så glasklart, grafikkortet ger en viss marginell hjälp även vid normal 2D-hantering. Dessutom har man på senare år öppnat upp för att olika program, som Photoshop, kan dra nytta av den enorma beräkningskapaciteten i GPU (vilket då nyare versioner av Photoshop också gör). Men generellt gäller att även med modernaste Photoshop så behövs inte något speciellt kraftfullt grafikkort. Det behövs bara om man vill ha snabb och högupplöst 3D-rendering (för t.ex. spel eller CAD).
 
Om man vill ha nytta av GPU och använder Adobes program så är Nvidia att föredra. AMD:s grafikkort stöds bara för enklare operationer tyvärr - det märks mest om man kör Premiere.
 
Om man vill ha nytta av GPU och använder Adobes program så är Nvidia att föredra. AMD:s grafikkort stöds bara för enklare operationer tyvärr - det märks mest om man kör Premiere.

Ge gärna KONKRETA förslag på vettiga men billiga Nvidia grafikkort för detta ändamål.
Hur mycket VRAM behövs?

Mvh Per
 
Ge gärna KONKRETA förslag på vettiga men billiga Nvidia grafikkort för detta ändamål.
Hur mycket VRAM behövs?

Mvh Per

Om du vill ha kort som OFFICIELLT stöds så är det enbart nVidia Quadro som ger dig CUDA-stöd i Mercury-motorn och liknande... och de är inte billiga om man vill ha någon prestanda att tala om (vi pratar från 7 000 kr och upp till hundratusentals kronor om man vill ha nåt som märks).

Om man är villig att hacka ett par filer så får man även stöd för acc i de "vanliga" GTX-korten.

Vill du har något som ger någon faktiskt prestandaboost så kan väl GTX670 eller GTX680 vara av intresse, de ligger på mellan 3 500 och 4 000kr.

Undvik de kort som har med Ti i modellbeteckningen, eftersom det är "bantade" varianter.

Kanske något i stil med http://www.dustin.se/product/501063...ci-e-dvi-hdmi-dp/#intcmp=searchProvider_dacsa Jag satte två såna i min nya maskin.

Men återigen: Om du skall syssla mest med 2D-redigering så är det (än så länge) ärligt talat helt bortkastade pengar med en graftig GPU.
 
Om du vill ha kort som OFFICIELLT stöds så är det enbart nVidia Quadro som ger dig CUDA-stöd i Mercury-motorn och liknande... och de är inte billiga om man vill ha någon prestanda att tala om (vi pratar från 7 000 kr och upp till hundratusentals kronor om man vill ha nåt som märks).

Om man är villig att hacka ett par filer så får man även stöd för acc i de "vanliga" GTX-korten.

Vill du har något som ger någon faktiskt prestandaboost så kan väl GTX670 eller GTX680 vara av intresse, de ligger på mellan 3 500 och 4 000kr.

Undvik de kort som har med Ti i modellbeteckningen, eftersom det är "bantade" varianter.

Kanske något i stil med http://www.dustin.se/product/501063...ci-e-dvi-hdmi-dp/#intcmp=searchProvider_dacsa Jag satte två såna i min nya maskin.

Men återigen: Om du skall syssla mest med 2D-redigering så är det (än så länge) ärligt talat helt bortkastade pengar med en graftig GPU.


Hej och tack för tipsen.
Det är alldeles för mycket pengar för mig..
Vad skall jag satsa på då?
Ett moderkort med ok grafikkrets eller ett billigare pci-e grafikkort.
Som sagt jag kommer aldrig att spela något spel och mitt huvudmål är att färgerna skall vara korrekta i min 2d redigering av bilder i PS.
 
Hej och tack för tipsen.
Det är alldeles för mycket pengar för mig..
Vad skall jag satsa på då?
Ett moderkort med ok grafikkrets eller ett billigare pci-e grafikkort.
Som sagt jag kommer aldrig att spela något spel och mitt huvudmål är att färgerna skall vara korrekta i min 2d redigering av bilder i PS.

Då tycker jag att du skall sikta på ett moderkort med integrerad grafik, och en Ivy Bride-processor. Då får du riktigt skaplig grafikprestanda, och en väldigt tyst och sval maskin.

En GPU trycker man ju lätt på plats den dag det blir aktuellt.

Om jag skulle bygga en "budgetinriktad" maskin så skulle jag nog sikta på nåt i stil med en i5-3550, ett enklare Z77-baserat moderkort och 16GB RAM. Det borde stanna på ungefär 3 000kr ink moms.

Ja, jag vet att ungefär alla kommer att ha nån annan synpunkt, men så brukar det bli :)
 
Då tycker jag att du skall sikta på ett moderkort med integrerad grafik, och en Ivy Bride-processor. Då får du riktigt skaplig grafikprestanda, och en väldigt tyst och sval maskin.

En GPU trycker man ju lätt på plats den dag det blir aktuellt.

Om jag skulle bygga en "budgetinriktad" maskin så skulle jag nog sikta på nåt i stil med en i5-3550, ett enklare Z77-baserat moderkort och 16GB RAM. Det borde stanna på ungefär 3 000kr ink moms.

Ja, jag vet att ungefär alla kommer att ha nån annan synpunkt, men så brukar det bli :)

Vad tror ni om det här från www.komplett.se ?
SE BIFOGAD BILD!
http://imageshack.us/photo/my-images/94/komplettm.jpg/
 
Hur menar du här och i samband med kalibrering?

Jag menar att om man kommunicerar analog med skärmen så har D/A-omvandlaren en direkt inverkan på hur exakt färger kan återges. Det är icket fallet med digitala kopplingar.

Trådstartaren sa att han ville ha (om man kortar av det lite) "Ett okej grafikkort med bra färgåtergivning".

Med andra ord: På analogtiden kunde man lägga pengar på ett kort med "bra D/A-omvandlare" och får "bättre färgåtergivning".

Med digitala kort är det noll skillnad på ett kort för tvåhundra, och ett kort för 5 000kr (Den dag som vi börjar se 10bpp genom hela flödet som standard så tänker jag eventuelt revidera mitt uttalande).

Så, idag ligger "kvaliten på färgåtergivningen" enbart på bildskärm och profilator/kalibrator.
 
Senast ändrad:
Jag menar att om man kommunicerar analog med skärmen så har D/A-omvandlaren en direkt inverkan på hur exakt färger kan återges. Det är icket fallet med digitala kopplingar.

Trådstartaren sa att han ville ha (om man kortar av det lite) "Ett okej grafikkort med bra färgåtergivning".

Med andra ord: På analogtiden kunde man lägga pengar på ett kort med "bra D/A-omvandlare" och får "bättre färgåtergivning".

Med digitala kort är det noll skillnad på ett kort för tvåhundra, och ett kort för 5 000kr (Den dag som vi börjar se 10bpp genom hela flödet som standard så tänker jag eventuelt revidera mitt uttalande).

Så, idag ligger "kvaliten på färgåtergivningen" enbart på bildskärm och profilator/kalibrator.

Instämmer. Jag gjorde faktiskt ett test för någar år sedan då vi mätte skillnad i färgåtergivning (delta) med två billiga och två riktigt påkostade fina grafikkort (ett billigt och ett dyrt från vardera ATI och Nvidia). Generellt var det ingen skillnad alls mellan de fyra. Det enda vi kunde se var en viss, knappt mätbar, variation i egenskaper (inte bara färger) över tid hos de billigare korten, troligen helt enkelt beroende på att de var sämre kylda. Men de här variationerna var så smår att de i stort sett hamnar i felmarginalen.
 
Hej igen,
står 3570k för något eller är det bara ett typ av löpnummer som blir högre ju nyare utgåva det är av cpu´n?

Enbart en modellbeteckning. "k" betyder att den har olåst multiplikator. Men om man inte tänker överklocka så är det ointressant. Sagt på ett annat sett "k" är topprestandamodellen av en cpu.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar