ANNONS
Annons

[windows] - Lite bra tips

Produkter
(logga in för att koppla)
FÖrst och främst, att använta Gigahertz som ett prestandamått är enligt mig lika ointressant som att säga "Min bil accelererar från 0 till 8 500rpm på 1,5 sekunder!"

Det känns som du hänvisar till Moores Lag när du pratar om en fördubbling va 18:e månad? Moores lag säger dock bara att antalet transistorer som kan placeras på en given yta fördubblas var 18:e månad, och det stämmer fortfarande ganska bra.

Trenden för NAND-chip är ännu mer aggressiv på den punkten. Detta är ju av särskilt intresse eftersom de används i SSD-enheter.

Vi kan kika på lite annat istället:

Hårddiskapacitet: 2005 500GB, 2006 750GB, 2007 1000GB, 2009 2000GB, 2011 4000GB. Lite drygt en åttadubbling på sex år.

Vad gäller grafikkort mätt i polygoner per sekund eller helt enkelt rå beräkningskraft så ligger utvecklingen också över en fördubbling på 18 månader.

Men, ja, när det gäller ren klockfrekvens så börjar man närma sig point of diminishing returns när det gäller vad som kan uppnås med luftkylning. Lyckligtvis är detta mätvärde näranog irrelevant.

Nu är ju dock precis Ivy Bridge utkommen och den skall alstra betydligt mindre värme än Sandy Bridge, så nästa generation kanske får mer gigahertzar.

Förr lyckades dock Intel hela tiden både höja frekvensen samtidigt som processorerna blev effektivare. På sistonde har man endast skruvat på effektiviteten (klockcyklar/kommando) och flerkärnigheten, samt trycka in mer funktionalitet för virtualisering.
Lite är det kanske Microsofts fel också eftersom dom sedan Vista gjort operativsystem som bara kräver mindre resurser hela tiden. Innan var man ju Intel pressade av Microsoft att göra snabbare processorer för att dom skulle klara av senaste operativsystemet från Microsoft.

/Karl
 
Man har kommit till vägs ände när det gäller att krympa kretsarna i kisel.

Jag har hört detta påstående att det blivit så mycket snabbare utan att klockfrekvensen har gått upp. Det är inte ett helt sant påstående. Visst vi har gått från 32-bit till 64-bit som behandlas i en klockcykel men resten är mest reklamsnack för att vi ska fortsätta köpa.


Visst är det viktigt med rätt grafikkort till AutoCAD eftersom man skalar om bilden så mycket men beräkningarna sker i processorn.


Nu ber jag om ursäkt i förväg för om detta låter som en "idiotförklaring"; men jag har väldigt svårt att hitta en trend i vilken kunskapsnivå du faktiskt besitter om moderna datorsystem. Ibland förefaller den god, och i bland (med inlägg som detta) förefaller den ligga riktigt lågt.

Att krympa kretsarna i kisel har definitivt inte stagnerat.
Kring sekelskiftet var det 250nm som gällde, och idag anses 22nm vara "mainstream". Alltså ligger vi fortfarande bra i synk med en halvering ungefär vartannat år.

Om man behandlar 32 eller 64 bitar i en klockcykel är också ganska ointressant, eftersom det intressant är VAD man kan göra med sin datamängd per tidsenhet.

Valet av grafikkort till AutoCAD är inte alls ointressant, eftersom AutoCAD 2010 och senare stöder full GPU offload, och då faktiskt klarar av att flytta upp alla beräkningar i GPU... det intressanta är att DÅ Kan AutoCAD 2010 dra nytta av flera kärnor. Att programmet fortfarande i mångt och mycket är enkeltrådat för CPU är bara ett resultat av ovilja hos autodesk.

Titta exempelvis på Tesla HPC som i princip är ett rack fyllt med upp till 240 högpresterande grafikkort... fast utan några anslutningar för skärmar. AutoCAD får ett överjävligt lyft med en sådan rig, jag lovar ;)

Nu har jag förvisso aldrig installerat något så kraftigt i CAD/CAE-sammanhang, men jag har en hel del erfarenhet med lite mer sansade mängder GPU-computing för CAD/CAE.
 
Om AutoCAD inte klarar av att köra beräkningar med hjälp av grafikkortet skall jag bli väldigt förvånad, jag har dock inte kört det själv dom sedan jag utbildade mig. Grafikkortet är väldigt bra på beräkningar och dom flesta beräkningsintensiva program brukar nu för tiden utnyttja grafikkortet.

Efter bara lite googling verkar AutoCAD stödja både cuda och openGL.

/Karl
Jo men denna diskusion börjad utifrån att jag skrev att det inte har varit så angeläget att byta dator efter som det inte hänt så mycket och då avsåg jag självklar att det ska förbättra prestandan i mitt arbete. Borde kanske varit tydligare på den punkten.

Det som intresserar mig är hur många sekunder det går från det att jag startar ett jobb tills resultatet kommer ut i andra änden. Och då har det verkligen inte hänt mycket de senaste åren. Eftersom jag har kunder som kör produkterna så har jag ju rikligt med tillfällen att med tidtagaruret i hand se hur lång tid en körning tar. De stora kunderna har ju alltid en ny dator på något skrivbord. För mina områden skulle jag kunna påstå att det kapacitetsmässigt stått stilla de senaste åren när jag jämför mellan datorerna. Tiden på slutresultatet har t.o.m. backat rejält eftersom datorerna inte håller jämna steg med att leverantörerna stoppar in fler och fler funktioner som tar kraft. 2008 kunde jag få 27 ritningar färdigritade på under två minuter. Idag tar de över 8 minuter. Visst har jag vidareutvecklat men det försvarar bara en ökning av tiden med max 1 minut.
Oavsett viken maskin vi testat i hittills skiljer det max 30 s.
 
Om man behandlar 32 eller 64 bitar i en klockcykel är också ganska ointressant, eftersom det intressant är VAD man kan göra med sin datamängd per tidsenhet.

Det är faktiskt inte ointressant ett helt 64-bit optimerat program kan under ideala förhållanden vara dubbelt så snabbt som ett 32-bitars om programmet använder 64-bitars program. Då 64-bitars-instruktioner faktiskt behandlar dubbelt så mycket data på samma tid som 32-bitars-instruktioner.
Det gäller dock inte dom första generationerna av Pentium då dom endast hade en 64-bitars adressbuss, medans databussen var 32-bitar.

/Karl
 
Jo men denna diskusion börjad utifrån att jag skrev att det inte har varit så angeläget att byta dator efter som det inte hänt så mycket och då avsåg jag självklar att det ska förbättra prestandan i mitt arbete. Borde kanske varit tydligare på den punkten.

Det som intresserar mig är hur många sekunder det går från det att jag startar ett jobb tills resultatet kommer ut i andra änden. Och då har det verkligen inte hänt mycket de senaste åren. Eftersom jag har kunder som kör produkterna så har jag ju rikligt med tillfällen att med tidtagaruret i hand se hur lång tid en körning tar. De stora kunderna har ju alltid en ny dator på något skrivbord. För mina områden skulle jag kunna påstå att det kapacitetsmässigt stått stilla de senaste åren när jag jämför mellan datorerna. Tiden på slutresultatet har t.o.m. backat rejält eftersom datorerna inte håller jämna steg med att leverantörerna stoppar in fler och fler funktioner som tar kraft. 2008 kunde jag få 27 ritningar färdigritade på under två minuter. Idag tar de över 8 minuter. Visst har jag vidareutvecklat men det försvarar bara en ökning av tiden med max 1 minut.
Oavsett viken maskin vi testat i hittills skiljer det max 30 s.

Du får helt enkelt slänga in bättre grafikkort och installera rätt drivrutiner för det så kommer du säkert under 8 minuter. AutoCAD är som sagt inte så duktigt på att utnyttja dagens CPUer, så du får titta mer på GPU(er).

/Karl
 
Nu ber jag om ursäkt i förväg för om detta låter som en "idiotförklaring"; men jag har väldigt svårt att hitta en trend i vilken kunskapsnivå du faktiskt besitter om moderna datorsystem. Ibland förefaller den god, och i bland (med inlägg som detta) förefaller den ligga riktigt lågt.

Att krympa kretsarna i kisel har definitivt inte stagnerat.
Kring sekelskiftet var det 250nm som gällde, och idag anses 22nm vara "mainstream". Alltså ligger vi fortfarande bra i synk med en halvering ungefär vartannat år.

Om man behandlar 32 eller 64 bitar i en klockcykel är också ganska ointressant, eftersom det intressant är VAD man kan göra med sin datamängd per tidsenhet.

Valet av grafikkort till AutoCAD är inte alls ointressant, eftersom AutoCAD 2010 och senare stöder full GPU offload, och då faktiskt klarar av att flytta upp alla beräkningar i GPU... det intressanta är att DÅ Kan AutoCAD 2010 dra nytta av flera kärnor. Att programmet fortfarande i mångt och mycket är enkeltrådat för CPU är bara ett resultat av ovilja hos autodesk.

Titta exempelvis på Tesla HPC som i princip är ett rack fyllt med upp till 240 högpresterande grafikkort... fast utan några anslutningar för skärmar. AutoCAD får ett överjävligt lyft med en sådan rig, jag lovar ;)

Nu har jag förvisso aldrig installerat något så kraftigt i CAD/CAE-sammanhang, men jag har en hel del erfarenhet med lite mer sansade mängder GPU-computing för CAD/CAE.

Ja, men då talar Du väl ändå fortfarande om beräkningar för att presentera grafiken på skärm? Inte används väl grafikprocessorn till att beräkna det som lagras ner runt en AutoCAD ritning på disk för då erkänner jag gärna att jag missförstått något?
Eftersom jag autoritar finns inget behov av skärmpresentation förrän vi kommer till det slutgiltiga resultatet. Alltså uppdateras inte skärmen under pågående skapande av ritningen. Givetvis är det annorlunda för den som sitter och ritar för hand och vill rulla objektet i 3D.
 
Du får helt enkelt slänga in bättre grafikkort och installera rätt drivrutiner för det så kommer du säkert under 8 minuter. AutoCAD är som sagt inte så duktigt på att utnyttja dagens CPUer, så du får titta mer på GPU(er).

/Karl
Detta får Du utveckla mer. Du menar alltså att processorn använder grafikkortet till att beräkna med även när inget ritas på skärmen?
 
Ja, men då talar Du väl ändå fortfarande om beräkningar för att presentera grafiken på skärm? Inte används väl grafikprocessorn till att beräkna det som lagras ner runt en AutoCAD ritning på disk för då erkänner jag gärna att jag missförstått något?
Eftersom jag autoritar finns inget behov av skärmpresentation förrän vi kommer till det slutgiltiga resultatet. Alltså uppdateras inte skärmen under pågående skapande av ritningen. Givetvis är det annorlunda för den som sitter och ritar för hand och vill rulla objektet i 3D.

GPUen är fruktansvärt snabb för beräkningar och används till det också, inte bara till att presentera grafik.
Det snygga nu med Sandy Bridge och det inbygda grafikkortet är att du kan använda det inbygda till att rita saker på skärmen och det externa till beräkningar. Blir det inbygda GPUn i CPUn överbelastad av att rita saker på skärmen så byts funktionen så att grafikkortet ritar saker på skärmen och GPUn i CPUn kan användas till beräkningar.

GPUn används av program som AutoCAD för att avlasta/snabba upp beräkningarna som annars hade skett i CPUn.

/Karl
 
Ja, men då talar Du väl ändå fortfarande om beräkningar för att presentera grafiken på skärm? Inte används väl grafikprocessorn till att beräkna det som lagras ner runt en AutoCAD ritning på disk för då erkänner jag gärna att jag missförstått något?
Eftersom jag autoritar finns inget behov av skärmpresentation förrän vi kommer till det slutgiltiga resultatet. Alltså uppdateras inte skärmen under pågående skapande av ritningen. Givetvis är det annorlunda för den som sitter och ritar för hand och vill rulla objektet i 3D.

Jag vet inte hur just AutoCAD beter sig, men det är numera inte ovanligt att använda grafikkorten till andra beräkningar än just sådana som ska ut på skärmen.
 
Detta får Du utveckla mer. Du menar alltså att processorn använder grafikkortet till att beräkna med även när inget ritas på skärmen?

Nja, AutoCAD väljer att skicka sina beräkningar via openGL/cuda till GPUn istället för att skicka dom till CPUn.
Det finns så vitt jag vet ingen CPU som automagiskt skickar över beräkningar till GPUn.

/Karl
 
Jag vet inte hur just AutoCAD beter sig, men det är numera inte ovanligt att använda grafikkorten till andra beräkningar än just sådana som ska ut på skärmen.
OK. Det har jag missat det erkänner jag gärna. Varje dag lär man sig något nytt.
Det är en nackdel att bli pensionär. Numera får man läsa sig till saker som leverantörerna prackade på en när man var aktiv.

Ett gått råd till Er som är unga! Bli aldrig gamla det har så få fördelar! :)

Men kvar står att på slutresultatet märks det tydligt att hastighetsutvecklingen har avtagit dramatiskt och att alla work arounds inte förmår att fullt ut kompensera för detta. Det hävdar jag fortsatt! :)
 
OK. Det har jag missat det erkänner jag gärna. Varje dag lär man sig något nytt.
Det är en nackdel att bli pensionär. Numera får man läsa sig till saker som leverantörerna prackade på en när man var aktiv.

Ett gått råd till Er som är unga! Bli aldrig gamla det har så få fördelar! :)

Men kvar står att på slutresultatet märks det tydligt att hastighetsutvecklingen har avtagit dramatiskt och att alla work arounds inte förmår att fullt ut kompensera för detta. Det hävdar jag fortsatt! :)

Du kan bygga en mångdubbelt snabbare autoCAD-lösning nu till en bråkdel av kostnaden av vad den snabbaste autoCAD-datorn kostade för 10år sedan.

/Karl
 
Ja, men då talar Du väl ändå fortfarande om beräkningar för att presentera grafiken på skärm? Inte används väl grafikprocessorn till att beräkna det som lagras ner runt en AutoCAD ritning på disk för då erkänner jag gärna att jag missförstått något?

Jo, jag menar exakt att man använder grafikprocessorer för att _beräkna_ saker som aldrig kommer att visas på en skärm. GPU'erna är HELT överlägnsa CPU'erna när det gäller att utföra komplexa matematiska beräkningar.

Man använder massiva GPU-cluster för att utföra vetenskaplika beräkningar inom de flesta områden idag.

Det tyngsta jag själv har varit med om att installera är ett SRS-14URKS-GPUS-11 som i princip är 15 terraflop beräkningskapacitet i ett halvt rack. som skulle användas för att beräkna materialdeformation. I princip är detta åtta stycken M2090 kort från Nvidia, det roliga med dessa "grafikkort" är att man (som jag tidigare) nämnt inte ens _kan_ ansluta en bildskärm till dem. Se exempelvis http://media.marketwire.com/attachments/201105/MOD-67669_TESLA_M2090_3qtr.jpg

Sagt på det sätt som nVidias pressavdelning vill: "Equipped with 512 CUDA® parallel processing cores, the Tesla M2090 GPU <b>delivers 665 gigaflops of peak double-precision performance</b>, enabling application acceleration by up to 10x compared to using a CPU alone."
 
Men kvar står att på slutresultatet märks det tydligt att hastighetsutvecklingen har avtagit dramatiskt och att alla work arounds inte förmår att fullt ut kompensera för detta. Det hävdar jag fortsatt! :)


Jag säger snarare såhär: De produkter du använder, och själv utvecklar, är inte anpassade för att kunna dra nytta av moderna system.

Om det sen är ett problem eller inte är ju en helt annant fråga. Jag gissar att det inte ens finns någon marknad för att KUNNA utföra dina beräkningar på några sekunder, eftersom jag förstått det som att man kanske inte använder produkten i en sådan miljö?
 
Jag säger snarare såhär: De produkter du använder, och själv utvecklar, är inte anpassade för att kunna dra nytta av moderna system.

Om det sen är ett problem eller inte är ju en helt annant fråga. Jag gissar att det inte ens finns någon marknad för att KUNNA utföra dina beräkningar på några sekunder, eftersom jag förstått det som att man kanske inte använder produkten i en sådan miljö?
Hel korrekt men det är en annan fråga. Det viktiga men min produkt är att det blir dramatiskt snabbare och mycket billigare än att rita förhand.

Ja, man får ju medge att det är klokt att använda alla tillgängliga resurser i datorn istället för att bara bygga ut. Det håller ju ner kostnaderna. Men när man kör på andras produkter måste man ju använda dem i det skick de är och då märks det fortfarande inga dramatiska skilnader mellan en fem år gammal dator och en ny när man ritar upp 27 ritningar i AutoCAD. Den kärna som AutoCAD snurrar i är då belastad till 100% med enstaka dippar medan programmet som matar snurrar behagligt i annan kärna/kärnor, beroende av maskin. Inga diskaccesser eftersom allt laddas till primärminne vid start. och ingen minnesbrist, bara halva minnet använt. Genomgående 64-bit miljö.

En intressant fråga! Är Lightroom 4 så flertrådigt att man har nytta av flera kärnor där? Det är det första program jag har där hela maskinen toppar.
 
En intressant fråga! Är Lightroom 4 så flertrådigt att man har nytta av flera kärnor där? Det är det första program jag har där hela maskinen toppar.

Adobes program brukar vara trådade, dom brukar dock endast kunna göra beräkningar med nvidas GPUer. Med lite tur blir det lite mer openGL-support (GPUer från intel, AMD) i Adobes produkter också. Bland annat Apple har bytt från använda nvidas till AMDs GPUer.

/Karl
 
En intressant fråga! Är Lightroom 4 så flertrådigt att man har nytta av flera kärnor där? Det är det första program jag har där hela maskinen toppar.

Ja, LR (och alla program jag känner till i Adobes produktprotfölj) är flertrådade. De kommer alltså att nyttja flera kärnor.

Däremot förefaller det som om de inte är _optimerade_ för den miljön.

LR kommer gladeligen att vid exempelvis export starta en arbetstråd per tilgänglig kärna, och lägga en export i varje tråd. Det ger naturligtivs ett enormt lyft från program som bara kör en tråd, men samtidigt så KAN man göra det bättre.

Men, precis som i fallet "Då måste jag ta hänsyn till om mina kunder har sådan hårdvara" så väljer man oftast att inte optimera längre än så eftersom utvecklingskostnaderna som regel blir rätt så stora.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar