Falumas
Aktiv medlem
FÖrst och främst, att använta Gigahertz som ett prestandamått är enligt mig lika ointressant som att säga "Min bil accelererar från 0 till 8 500rpm på 1,5 sekunder!"
Det känns som du hänvisar till Moores Lag när du pratar om en fördubbling va 18:e månad? Moores lag säger dock bara att antalet transistorer som kan placeras på en given yta fördubblas var 18:e månad, och det stämmer fortfarande ganska bra.
Trenden för NAND-chip är ännu mer aggressiv på den punkten. Detta är ju av särskilt intresse eftersom de används i SSD-enheter.
Vi kan kika på lite annat istället:
Hårddiskapacitet: 2005 500GB, 2006 750GB, 2007 1000GB, 2009 2000GB, 2011 4000GB. Lite drygt en åttadubbling på sex år.
Vad gäller grafikkort mätt i polygoner per sekund eller helt enkelt rå beräkningskraft så ligger utvecklingen också över en fördubbling på 18 månader.
Men, ja, när det gäller ren klockfrekvens så börjar man närma sig point of diminishing returns när det gäller vad som kan uppnås med luftkylning. Lyckligtvis är detta mätvärde näranog irrelevant.
Nu är ju dock precis Ivy Bridge utkommen och den skall alstra betydligt mindre värme än Sandy Bridge, så nästa generation kanske får mer gigahertzar.
Förr lyckades dock Intel hela tiden både höja frekvensen samtidigt som processorerna blev effektivare. På sistonde har man endast skruvat på effektiviteten (klockcyklar/kommando) och flerkärnigheten, samt trycka in mer funktionalitet för virtualisering.
Lite är det kanske Microsofts fel också eftersom dom sedan Vista gjort operativsystem som bara kräver mindre resurser hela tiden. Innan var man ju Intel pressade av Microsoft att göra snabbare processorer för att dom skulle klara av senaste operativsystemet från Microsoft.
/Karl