Jag håller på med tester mellan ett Radeon 6950 o NVIDIA 660 Ti.
Vissta Adobe Premiere Pro vet att det sitter ett CUDA-kort men det gör inte mycket för att minska tiden om vi tittar på analyseringar, renderingar.
Dött lopp faktiskt med en i5 Q4.
Men processorkraft påverkar tiden, jag borde valt en i7 med multithreading.
Det sura i kråksången är att jag lika gärna kunde köpte ett NVIDIA från början om jag vetat att jag skulle valt det. Nu måste man köpa det extra...
Det som alltså på sikt kommer att flytta ut i grafikkretsarna, är det mesta av de oberoende, vektoriserbara flyttalsberäkningar som fnv utförs av processorns SIMD-instruktioner.
Det var väl AMD's idé från början. "Fusion". För att det skall vara ide för mjukvarutillverkarna att göra program med sådan kod, måste det vara garanterat att datorerna har sådana processor-resurser. Alltså tillverkas alla processorer (nästan) numera med inbyggd grafikprocessordel. Intel insåg väl tidigt hotet och har också hoppat på vagnen. Därmed kan vi vara säkra på att denna utvecklingen verkligen kommer.
Man skulle kunna se det som en massiv utbyggnad av processorns vektor-resurser. För att det inte bara skall vara en massa hårdvaru-dödkött som gör processorn större, dyrare och varmare, låt det vara GPU-resurser, som normalt används till skärm-rendering.
De beräkningar som har med transformationer för att rendera objekt på skärmen utförs redan alltid av GPUn. De beräkningar som har mer med applicationens egen bildprocess att göra utförs fortfarande av den gamla processor-delen. Men att detta kommer att ändras i framtiden är garanterat. Det tar bara tid. Först måste hårdvarustandarden ändras, sedan kommer mjukvaran långsamt efter. Redan '386'an stödde 32-bits mjukvara. Det dröjde ända tills Windows95 innan detta utnyttjades, och då av Pentium processorer. Redan Athlon64 stödde 64-bits mjukvara. Det har dröjt ända tills Windows7 innan vi ser detta utnyttjas, och då av Core i, Phenom, FX etc.
Själva gränsnittet till GPUns beräkningsresurser kan väl kanske bli ett crux. AMD's ide är nånting kallat OCL. Men eftersom Intel är en mycket ful buffel som inte drar sig ens för grova förbrytelser (eftersom de vet att det lönar sig mycket väl, även om de blir straffade) för att trycka ner sina konkurrenter, förväntar jag mig inte att de plötsligt skall samarbeta här. Det är i praktiken Intel som kommer att bestämma hur gränssnittet kommer att se ut.
nVidias CUDA ser jag som redan marginaliserat. Det var i princip samma ide, använda grafikprocessorn i för stora parallella beräkningar. Det används av nån superdator byggd med Geforce kort, och några spel för PC med Geforce. nVidia kommer liksom AMD att bli tvingat att anpassa sig till vad Intel gör, och Intel kommer att försöka lägga så många hinder som möjligt i vägen. Bla vill nog Intel hindra att koden också kan köras på lösa, kraftfulla grafikkort från nVidia och AMD.
Oavsett vilket, när koden verkligen kommer, blir prestandavinsten enorm. Men om den inte går att vidarlämnas till ett perifert grafikkort, kommer vi alltid att tillskriva den till processorn.