Annons

Hur snabbt brusar din dator av en RAW med AI?

Produkter
(logga in för att koppla)
Ta upp "Task Manager", eller "Aktivitetshanteraren" som den heter på svenska. Ctrl + Shift + Esc - välj fliken "Performance" eller "Prestanda" och studera graferna medan bilden processas så hittar du flaskhalsen (lär vara GPU (Graphics Processing Unit) eller grafikprocessorn med andra ord).
 
Fyra sex sekunder, det låter mer lagom. Har du Super eller ti?

Efter mycket surfande så har jag insett att jag ska lämna tillbaka datorn och plocka ihop en ny och framtidsanpassad.

Jag kollade nu. Lightroom beräknar fyra sekunder för en bild (från Z8) eller 40 sekunder för tio bilder.

Jag har en vanlig RTX 4090, utan något suffix.
 
Hittade en länk där man byter till extern GPU:
 
Här testar man Topaz för video- bör vara intressant för val av GPU:
 
Jag slår säkert ett bottenrekord med 8-12 min för 25-45Mpix fil. En Asus laptop med Intel7 och 16GB Ram runt tre år gammal. Det är ju väldigt mycket grafikkort när det gäller de nya AI tjänsterna i LR och PS. Kommer snart köpa en ny dator, frågan är om man ska satsa på en Snapdragon processor som inte har ett dedikerat grafikkort eller köpa en Intel/AMD 7 med GeForce 4060 eller 4070
En Snapdragon är nog bra map energiförbrukning med en bra separat GPU ligger på 200-500W så det är stor skillnad...om tiden är dyrbar!
 
Fler GPUer med Topaz:
 
Jag har en MacBook Air M1 16 GB minne, för mig tog brusreduceringen 90 sekunder, tydligen hjälper det med mer minne (jag tror att du har lite snabbare processor i din Pro).

Japp det är tyvärr minnet som är den trånga sektorn. Kommer under året byta ut den till en MBP M4 med 32gb minne.
 
14 sekunder, en ganska brusig fil från Z7 (45MP) tagen med iso 22800.
i7-8700K, RTX3080 (10GB) och 48GB RAM.
 
Japp, väldigt grafikkortsberoende. Det kanske inte tillför så mycket, men i Lightroom med RTX 4090 på 45 megapixel (Nikon Z7/Z8) tar det... ja fyra eller sex sekunder, jag minns inte exakt, något av det.

Jag kör också rtx 4090 samt 64GB ram. 4-5 sek ungefär.

Man undrar ju om det nya 5090 skulle tillföra något bättre med deras ai kärnor eller om de mer är för datorspel.
 
ANNONS