Det är otroligt många faktorer som spelar in i priset. Marknadsföring, konstruktion, utvekling, tillverkning, efterfrågan kontra tillgång, osv.
Priset för en kiselskiva i sig är inte så mycket, men när du måste kasta ett antal av sensorerna per skiva pga av felaktigheter i skivan blir det rätt dyrt. Och på produkter av mindre serier så kostar ju utveklingen mer / chip.
Jag har för mig att Canon använder 200mm skivor för sina sensorer. Och ur en 200mm skiva får du ut typ 24 eller 25 stycken fullformats sensorer, varpå x-antal är deffekta i regel. Detta nummer brukar hållas hemligt av tillverkaren.
En skiva ger runt 75st sensorer i APS storlek. Och då blir ju den procentuellt andelen p.g.a. felaktigheter i skivorna oftast mindre.
Så i ren materialkostnad så är det iaf 3ggr priset för en fullformats sensor. Och utöver det tillkommer en ökat koplexitet p.g.a. den större ytan, stora chip kräver en annan typ av litografi när dom kommer över en viss nivå. OSV.
En större serie och bättre tillverkning tar ju sakta men säkert ner priset till bättre nivårer. Men inte hur långt som helst. Och dessutom tillkommer ju ett matchande hus för en dyr sensor. Det är ingen slump att Canons fullformatshus är ur Eos 1 serien och inte en 300 serie. Kolla vad en Eos 1V-HS kostar, t.ex.
Jämförelsen med CPU'er idag är lite knepigt. Chippen i sig är väldigt mycket mindre. Jämfört med en fullformats sensor är dom flesta CPU-chip bara 1/10 av storleken. En 200mm skiva kan ge runt 250 chip beroende på storleken. Så chippen till 250 cpu'er kostar lika mycket som 75 chip till en digitalkamera med APS-sensor eller 25 chip av fullt 135-format. Numera används dessutom ofta 300mm skivor vilket ger ung. en 600 cpu-chip/skiva. Så kostnaden för varje felaktigt chips slås ut över ett större antal chip. Därtill så är det ju lite skillnad i vad chippen ska klara. Ett bildchip lär inte kunna ha för många trasiga pixlar, och en antalet CPU:er som går i högsta hastigheten är ju få, men å andra sidan så säljs dom ofta som en CPU med lägre hastighet, trots att det är samma chip i grunden.
Att en CPU kan gå i 3GHz idag beror på ett antal saker. Själva desingen av CPU:n är gjord så varje steg gör väldigt lite jobb, men det är väldigt många steg, då kan varje steg göras snabbare. Det är skillnaden mellan AMD och Intel. En 3Ghz Intel, gör samma jobb och har samma faktiskta prestanda i dom flesta program som en AMD 3000+ som igentligen "bara" går i 2GHz. AMD har färre steg, men utför mer arbete / steg.
Då varje transistor är mindre och hela CPU'n också är mindre, medger att dessa kan fungera på en högre frekvens än om dom hade varit större. Annars behövs det delar vars enda uppgift är att föra vidare klockan, till andra delar av chippen, annars kommer chippens olika delar att gå i olika takt, typ.
Serierna är otroligt stora och mängden datorer är också otroligt stort. Det gör att utvecklningskostnader slås ut över ett antal fler personer än tidigare. På 80-talet var det mer eklusivt med dator, men dessa skulle fortfarande stå för utveklingskostnader, o.s.v.
Mer om hur CPU:er är konstruerade och funktionen går att läsa på bland annat
http://www.arstechnica.com - Hannibals artiklar är välidigt pedagogiskt skrivan. Annars finns det
http://www.aceshardware.com och
http://www.realworldtech.com om du vill ha ännu mer.