Annons

[windows] - Lite bra tips

Produkter
(logga in för att koppla)
Gör jag alltid. Jag utvecklar programvara som beräknar och via ActiveX automatiskt ritar upp kompletta byggritningar till stora hallbyggnader i AutoCAD. Det drar kraft och minne ur maskinen så jag vill inte ha något onödigt igång.

Då är risken kanske stor att du stängt ner något som inte var så onödigt. Titta vilka services som körs på den virtuella maskinen och vilka som körs på din stationära.

/Karl
 
Då är risken kanske stor att du stängt ner något som inte var så onödigt. Titta vilka services som körs på den virtuella maskinen och vilka som körs på din stationära.

/Karl
Nej, jag har inte stängt något som behövs. Dessutom är uppsättningen av de virtuella datorerna, där det fungerar, identiska med basinstallationen. Enda skillnaden är att jag testar avancerade saker i de virtuella eftersom det bara är att göra restore på dem om det var för vilda tester.

Dessutom har jag en son som jobbar som systemspecialist hos MS, som rådgivare, så den risken är minimal. Han rycker ut när de stora är i kris såsom Ericsson, Tarfikverket, Landstingen o.s.v. Han och hans kolegor har inte heller hittat någon bra förklaring till problemet. Det enda som återstår är att lyfta ett case hos MS som går till Sealte men det brukar sluta i en work around i väntan på ny release. Det har det gjort tidigare när jag hittat fel i MS produkter.
 
Personligen tycker jag inte att det finns någon anledning att stänga av Windows brandvägg för att man anser att det är ett prestandaproblem. Vinsterna med att stänga av standardtjänster överhuvudtaget är i mitt tycke minimala.

Om vi återvänder till ditt NAS-problem så känns det lite som att den enda slutsatsen är att det är ett handhavandefel/inställningsfel/konflikt med tredjepartsmjukvara (eftersom det fungerar som det skall med en ren installation) och inte ett faktiskt problem med produkten Windows.
 
Personligen tycker jag inte att det finns någon anledning att stänga av Windows brandvägg för att man anser att det är ett prestandaproblem. Vinsterna med att stänga av standardtjänster överhuvudtaget är i mitt tycke minimala.

Om vi återvänder till ditt NAS-problem så känns det lite som att den enda slutsatsen är att det är ett handhavandefel/inställningsfel/konflikt med tredjepartsmjukvara (eftersom det fungerar som det skall med en ren installation) och inte ett faktiskt problem med produkten Windows.
Finns ingen anledning att ha brandväggen igång heller. Jag har aldrig haft ett intrång och aldrig virus på alla år så min mina metoder att skydda mig har fungerat hittills. Men strunt i det den utgör inget problem i detta fall.

Ja, troligen är någon information i maskinen skadad eller versionsblandning. Så är det nog men det är inte helt enkelt att lista ut vad. Vi släpper detta nu för nu närmar vi oss gissningarna. Jag går ändå i tankar att investera i en ny arbetsstation. Gör hellre det än lägger allt arbete på en ominstallation. Denna maskin har passerat 5 år och så länge har jag aldrig haft en maskin tidigare. Men det har aldrig hänt så lite på hårdvaruområdet heller som under de senaste fem åren.
 
Jag kör fortfarande med en i7 920 som väl var första generationen i7, och den tuffar på rätt bra, men nya Sandy Bridge-E och Ivy Bridge är rätt mycket snabbare. Stödet för SATA3, USB3 och mycket mer minne är inte heller så dumt med de nya burkarna.

i7 kom 2008 och gjorde rätt stor skillnad mot föregående generation, så nog har det hänt en hel del de senaste fem åren :)

För övrigt tycker jag du ska prova mitt tips med en ny windowsanvändare, fast å andra sidan funkade det ju med en annan NAS-användare också säger du, så problemet går ju att komma runt. Annars förstår jag inte riktigt varför du frågar om dina datorproblem här, när du har en son som är expert på MS och du själv jobbat med IT i evigheter. Om du eller sonen inte kan ha fel lär vi inte heller kunna hjälpa till, eller?
 
Det är så här att jag gör ofta en massa jobb som att lägga till objekt, texter etc på bilderna. Jag ritar dit, lägger in clipart, effekter etc. Därför vill jag undvika JPG överhuvudtaget när jag jobbar då jag kan spara om en bild kanske 10 gånger innan den är klar. Så fort jag sparar i JPG så blir allt jag lagt till genast jpg komprimerat, och det vill jag inte.

JPG är för övrigt rena pinan på nätet där vissa bildhoster sönderkomprimerar bilderna.

Men varför BMP? Den enda som anväder det formatet idag förutom du är Microsoft.
Om du arbetar i Photoshop med den typ av arbete som du beskriver finns det ett utmärkt filformat som heter PSD. Bilden förstörs inte av komprimering när du säkerhetssparar. Alla fotografier, clipart, texter mm som du lägger till sparas i varsit lager. Du kan förstora, förminska, skeva, ändra färg, sudda, flytta runt eller göra vilken redigering du vill i ett lager utan att påverka de andra lagren. Vill du flytta på texten eller formulera om den eller byta teckensnitt markerar du det lagret och gör det du vill. Du kan dubblera ett lager, göra det ena osynligt och prova en alternativ redigering i det synliga. Blir det inte bra, radera lagret och börja om.
När du är klar visar du de lager du vill ha med och sparar tex som JPG eller PNG. Du kan när som helst öppna PSD-filen och justera valfritt lager, lägga till eller ta bort lager.

I BMP ligger allt i samma bild, du kan inte ändra på texten när du väl lagt in den, eller byta ut clipartbilden.
 
Jag kör fortfarande med en i7 920 som väl var första generationen i7, och den tuffar på rätt bra, men nya Sandy Bridge-E och Ivy Bridge är rätt mycket snabbare. Stödet för SATA3, USB3 och mycket mer minne är inte heller så dumt med de nya burkarna.
Rent prestandamässigt sett är inte Ivy bridge direkt snabbare än i7 920. Kör dem på samma klockfrekvens och de presterar likvärdigt. Så köpte du en 920 med X58-chipset när de var nya så gjorde du en riktigt bra affär! ;)
 
Rent prestandamässigt sett är inte Ivy bridge direkt snabbare än i7 920. Kör dem på samma klockfrekvens och de presterar likvärdigt. Så köpte du en 920 med X58-chipset när de var nya så gjorde du en riktigt bra affär! ;)

Jag har kört min 2,667 MHz på 3,8 utan problem, men behöver det inte. Men, ja - det var en sån cpu :).
 
Jag har kört min 2,667 MHz på 3,8 utan problem, men behöver det inte. Men, ja - det var en sån cpu :).
jag har kört min 920 i 4GHz sen jag köpte den 2008, tickar på som klockan fortfarande. utan tvekan det allra bästa hårdvaruköpet jag gjort i hela mitt liv ;)
 
Jag vill snarare säga tvärtom...
Ja, du vill alltid det! :) Och givetvis har det inte stått stilla helt men det mesta är kompensationer för att man inte längre fördubblar hastigheten och halvera storleken var 18 månad som man gjorde hela 70-, 80-, och 90-talen men radan i början på 2000-talet var Intel uppe i 3,1 GHz. Nu toppar de runt. 3,8 GHz. Med samma utvecklingshastighet som tidigare skulle vi nu ha legat på högre hastighet än 198 GHz. Det försöker man kompensera med fler kärnor men 198/3,8 blir 52,2 och några maskiner med 52 kärnor i marknaden har jag inte sett.
Dessutom är det inte så många enanvändarprogram som lämpar sig för parallell processing och extremt få som kan dra minsta nytta av 52 parallella trådar. Då pratar vi servrar men inte arbetsstationer.
AutoCAD som jag använder dagligen har inte mycket till parallell processing. Jag har visserligen inte installerat 2012 ännu men 2010 belastar fortfarande bara en kärna.
 
Ja, du vill alltid det! :) Och givetvis har det inte stått stilla helt men det mesta är kompensationer för att man inte längre fördubblar hastigheten och halvera storleken var 18 månad som man gjorde hela 70-, 80-, och 90-talen men radan i början på 2000-talet var Intel uppe i 3,1 GHz. Nu toppar de runt. 3,8 GHz.
Fast nu är det så att en processor på säg 3GHz idag är många, många, många gånger snabbare än en tidig 2000-talsprocessor på 3GHz...
 
Ja, du vill alltid det! :) Och givetvis har det inte stått stilla helt men det mesta är kompensationer för att man inte längre fördubblar hastigheten och halvera storleken var 18 månad som man gjorde hela 70-, 80-, och 90-talen men radan i början på 2000-talet var Intel uppe i 3,1 GHz. Nu toppar de runt. 3,8 GHz. Med samma utvecklingshastighet som tidigare skulle vi nu ha legat på högre hastighet än 198 GHz. Det försöker man kompensera med fler kärnor men 198/3,8 blir 52,2 och några maskiner med 52 kärnor i marknaden har jag inte sett.
Dessutom är det inte så många enanvändarprogram som lämpar sig för parallell processing och extremt få som kan dra minsta nytta av 52 parallella trådar. Då pratar vi servrar men inte arbetsstationer.
AutoCAD som jag använder dagligen har inte mycket till parallell processing. Jag har visserligen inte installerat 2012 ännu men 2010 belastar fortfarande bara en kärna.

Autocad kör väl dom flesta beräkningarna med hjälp av grafikkortet. Mitt ATI-kort har då speciella drivrutiner för AutoCAD för sådant. Så kör du AutoCAD skall du titta mer på grafikkortet än processorn.

Håller dock med om att Intel legat på latsidan. Dom har inte lyckats pressa upp prestandan speciellt mycket och dom har inte lyckats sänka batteriförbrukningen tillräckligt mycket.

Dom senaste 6 år har det hänt mycket på datorsidan men inte så mycket på processorsidan. USB3, grafikkorten, SATA3, SSDer etc.

/Karl
 
Fast nu är det så att en processor på säg 3GHz idag är många, många, många gånger snabbare än en tidig 2000-talsprocessor på 3GHz...

Det beror faktiskt lite på vad du gör, men rent generellt ja. Jag har en gammal Dell server (som jag sällan kör då den låter värre än ett tröskverk) som har dubbla P3-processorer, den presterar ungefär likvärdigt med en Core2Duo på samma Ghz. Sedan finns det ju inga processorer i i-familjen att jämföra direkt med. Det är dock inga gigantiska skillnader vi pratar om.

/Karl
 
Autocad kör väl dom flesta beräkningarna med hjälp av grafikkortet. Mitt ATI-kort har då speciella drivrutiner för AutoCAD för sådant. Så kör du AutoCAD skall du titta mer på grafikkortet än processorn.

Håller dock med om att Intel legat på latsidan. Dom har inte lyckats pressa upp prestandan speciellt mycket och dom har inte lyckats sänka batteriförbrukningen tillräckligt mycket.

Dom senaste 6 år har det hänt mycket på datorsidan men inte så mycket på processorsidan. USB3, grafikkorten, SATA3, SSDer etc.

/Karl
Tror inte de legat på latsidan. Man har kommit till vägs ände när det gäller att krympa kretsarna i kisel.
Jag har hört detta påstående att det blivit så mycket snabbare utan att klockfrekvensen har gått upp. Det är inte ett helt sant påstående. Visst vi har gått från 32-bit till 64-bit som behandlas i en klockcykel men resten är mest reklamsnack för att vi ska fortsätta köpa.
Visst är det viktigt med rätt grafikkort till AutoCAD eftersom man skalar om bilden så mycket men beräkningarna sker i processorn.
Eftersom jag utvecklar program som via ActiveX ritar byggnader i AutoCAD så matar jag på för allt vad AutoCAD kan prestera och daterar inte upp skärmen förrän hela ritningen är klar. Mitt program kan flertrådigt sprida ut sig över flera kärnor men AutoCAD tuggar på och belägger bara en kärna konstant till 100%.

Det börjar sakta komma flertrådiga program men det är ändå få applikationer som passar som flertrådiga. Däremot är det givetvis suveränt i servrar med fler kärnor eftersom samma process går i mängder av upplagor.

Dessutom är det trevligt med många kärnor eftersom datorn då svarar även när man belastar de stenhårt. Det finns ju alltid ett antal kärnor som inget har att göra.
 
Ja, du vill alltid det! :) Och givetvis har det inte stått stilla helt men det mesta är kompensationer för att man inte längre fördubblar hastigheten och halvera storleken var 18 månad som man gjorde hela 70-, 80-, och 90-talen men radan i början på 2000-talet var Intel uppe i 3,1 GHz. Nu toppar de runt. 3,8 GHz. Med samma utvecklingshastighet som tidigare skulle vi nu ha legat på högre hastighet än 198 GHz. Det försöker man kompensera med fler kärnor men 198/3,8 blir 52,2 och några maskiner med 52 kärnor i marknaden har jag inte sett.
Dessutom är det inte så många enanvändarprogram som lämpar sig för parallell processing och extremt få som kan dra minsta nytta av 52 parallella trådar. Då pratar vi servrar men inte arbetsstationer.
AutoCAD som jag använder dagligen har inte mycket till parallell processing. Jag har visserligen inte installerat 2012 ännu men 2010 belastar fortfarande bara en kärna.

FÖrst och främst, att använta Gigahertz som ett prestandamått är enligt mig lika ointressant som att säga "Min bil accelererar från 0 till 8 500rpm på 1,5 sekunder!"

Det känns som du hänvisar till Moores Lag när du pratar om en fördubbling va 18:e månad? Moores lag säger dock bara att antalet transistorer som kan placeras på en given yta fördubblas var 18:e månad, och det stämmer fortfarande ganska bra.

Trenden för NAND-chip är ännu mer aggressiv på den punkten. Detta är ju av särskilt intresse eftersom de används i SSD-enheter.

Vi kan kika på lite annat istället:

Hårddiskapacitet: 2005 500GB, 2006 750GB, 2007 1000GB, 2009 2000GB, 2011 4000GB. Lite drygt en åttadubbling på sex år.

Vad gäller grafikkort mätt i polygoner per sekund eller helt enkelt rå beräkningskraft så ligger utvecklingen också över en fördubbling på 18 månader.

Men, ja, när det gäller ren klockfrekvens så börjar man närma sig point of diminishing returns när det gäller vad som kan uppnås med luftkylning. Lyckligtvis är detta mätvärde näranog irrelevant.
 
Tror inte de legat på latsidan. Man har kommit till vägs ände när det gäller att krympa kretsarna i kisel.
Jag har hört detta påstående att det blivit så mycket snabbare utan att klockfrekvensen har gått upp. Det är inte ett helt sant påstående. Visst vi har gått från 32-bit till 64-bit som behandlas i en klockcykel men resten är mest reklamsnack för att vi ska fortsätta köpa.
Visst är det viktigt med rätt grafikkort till AutoCAD eftersom man skalar om bilden så mycket men beräkningarna sker i processorn.
Eftersom jag utvecklar program som via ActiveX ritar byggnader i AutoCAD så matar jag på för allt vad AutoCAD kan prestera och daterar inte upp skärmen förrän hela ritningen är klar. Mitt program kan flertrådigt sprida ut sig över flera kärnor men AutoCAD tuggar på och belägger bara en kärna konstant till 100%.

Det börjar sakta komma flertrådiga program men det är ändå få applikationer som passar som flertrådiga. Däremot är det givetvis suveränt i servrar med fler kärnor eftersom samma process går i mängder av upplagot.

Om AutoCAD inte klarar av att köra beräkningar med hjälp av grafikkortet skall jag bli väldigt förvånad, jag har dock inte kört det själv dom sedan jag utbildade mig. Grafikkortet är väldigt bra på beräkningar och dom flesta beräkningsintensiva program brukar nu för tiden utnyttja grafikkortet.

Efter bara lite googling verkar AutoCAD stödja både cuda och openGL.

/Karl
 
Det beror faktiskt lite på vad du gör, men rent generellt ja. Jag har en gammal Dell server (som jag sällan kör då den låter värre än ett tröskverk) som har dubbla P3-processorer, den presterar ungefär likvärdigt med en Core2Duo på samma Ghz. Sedan finns det ju inga processorer i i-familjen att jämföra direkt med. Det är dock inga gigantiska skillnader vi pratar om.

/Karl
Ptja, med tanke på att en c2d är ungefär dubbelt så snabb som en p3 så är det väl inte helt orimligt att dubbla p3:eek:r presterar på det viset.
 
ANNONS
Köp TZ99 hos Götaplatsens Foto