Annons

Hur är MF-sensorerna gjorda? Stitchade eller monolitiska?

Produkter
(logga in för att koppla)

Knight Palm

Aktiv medlem
I en annan tråd i ett annat forum, så nämndes att MF-sensorerna är två halvor som är stitchade samman. Med MF menas t.ex. Hasselblad H3D, Pentax 645D, Mamiya ZD backs, Leaf backs, och Phase One backs.

Det låter i så fall som en produktionsteknisk mardröm. Är det verkligen ingen monolit, utan två sammansatta sensorhalvor? Det skulle i så fall motivera den höga kostnaden för dessa typer av sensorer.

Finns det något tekniskt ingående beskrivet på Hasselblads sidor om deras sensorer? Deras sensorer finns ju i två storlekar: H3D-31 (44.2 x 33.1 mm) och H3D-39 (49.0 x 36.7 mm). Är i så fall bägge stitchade samman?

Finns det tillgång till en rå-fil kanske? Eventuellt skulle en körning av en sådan fil i DCRAW kunna påvisa den påstådda arkitekturen?
 
Någonstans lär det också finnas en brytpunkt när det är billigare att lägga ihop två mindre sensorer än att bygga dem i ett stycke om man betänker tillverkningsprocessen och antal fel inom varje kiselplatta.

Ponera att du får ut 4st hela MF ur en wafer, och kanske 12 stycken halva. Säg att du får defekter på skivan som förstår 2/4 på den där du har hela, men samma antal deffekter förstör annars kanske 2/12, varpå du vinner motsvarande 3st hela som kan kompensera för den extra kostnaden att lägga ihop två halva.

Men de exakta sifforna kan bara tillverkarna svara på, även om man kan räkna på hur många de får ut ur varje wafer såklart. Ovan är bara ett rent exempel.
 
Tack för länkar till LL-artiklar och kommentarer.

Låter vettigt att höra att Hasselblad inte gör det. Däremot i små serier för Aerospace & Defence kan jag tänka mig att budget finns för att bygga stora sammansatta sensorer.

Skarven mellan två sensorhalvor kommer dock alltid att bli ett problem. För att ritsa och knäcka en kiselbricka, så bör man nog inte ha någon ledare närmare kanten än gissningsvis ½ mil (tusendels tum). Förhoppningsvis behövs inga bondningsöar på den långsida som möter den andra halvan, men utrymme för ledningsmatrisen upptar säkert en ¼ mil i periferin runt grupperingen av de ljuskänsliga elementen. Vidare behövs en blotta mellan sensorhalvorna på säg ¼ mil för tillpassning och limning. Sammantaget skulle detta innebära en "död zon" vertikalt på ½+½+¼+¼+¼=1¾ mil motsvarande ca 45µm. Med en pixel pitch på 9µm, så skulle den döda zonen utgöras av 5 pixlar.

En död zon går visserligen att kompensera för, om man tar fler än en kalibrerad och sidförskjuten bild, som senare sammanställs till en slutlig sådan. Det fungerar säkert bra i ett Aerospace & Defence scenario, men låter opraktiskt i porträttsammanhang för kommersiellt bruk.

En "död zon" på 5 pixlar kanske går att interpolera fram vid en rå-konvertering, vilket förmodligen är det man måste göra med dessa sensorer. Det finns ju både Hot pixel och Dead/Stuck pixel som man måste mappa bort, så kanske det man ändå måste göra i mjukvara är en bagatell i sammanhanget.

Som tidigare nämnts längre upp i tråden, är det väl tillverkningsutfallet hos de stora brickorna, som är det största huvudbryet.
 
Hmm.. Jag vill minnas att H3D visst har stitchad sensor. När jag var nere på Photokina 2006 så frågade jag just detta och fick till svar att det var två sensorer och att bilderna mappades ihop i kamerans mjukvara.
 
Jag har trott att stitching bara handlat om att stepperkamerornas bildrutor är för små så att man måste lägga ihop flera bildrutor, d v s att det bara handlat om en rent litografisk metod. Är ni verkligen säkra på att det handlar om hopskarvning av två eller flera fysiskt åtskilda färdiga sensorer?
 
Pupillen skrev:
Jag har trott att stitching bara handlat om att stepperkamerornas bildrutor är för små så att man måste lägga ihop flera bildrutor, d v s att det bara handlat om en rent litografisk metod. Är ni verkligen säkra på att det handlar om hopskarvning av två eller flera fysiskt åtskilda färdiga sensorer?

Ju mindre sensorer - desto högre yeild (oftast). Så ja, jag är av denb uppfattningen att det handlar om hopskarvning.
 
Pupillen skrev:
Jag har trott att stitching bara handlat om att stepperkamerornas bildrutor är för små så att man måste lägga ihop flera bildrutor, d v s att det bara handlat om en rent litografisk metod. Är ni verkligen säkra på att det handlar om hopskarvning av två eller flera fysiskt åtskilda färdiga sensorer?

Samma här, för produktion i kommersiella volymer torde en stitchning vara problematisk.

Min skattning här ovan av den döda zonen med tillpassning av sensorhalvor är mycket optimistisk, idealiserad och förmodligen orealistisk.

Även sett med en halvledarfysikers ögon, så torde en arkitektur med två sensorhalvor innebära stora funktionsbegränsningar.

Jag har kikat lite på webben, men inte hittat något hos t.ex. Hasselblad och Kodak som antyder stitchning av sensorhalvor. Halvledarindustrin är dock väldigt förtegen som sådan, så det är inte alltid så lätt att få fram önskad information.
 
Pupillen skrev:
Jag har trott att stitching bara handlat om att stepperkamerornas bildrutor är för små så att man måste lägga ihop flera bildrutor, d v s att det bara handlat om en rent litografisk metod. Är ni verkligen säkra på att det handlar om hopskarvning av två eller flera fysiskt åtskilda färdiga sensorer?
Jag antar att litografi-delen "stichas", eller iaf exponeras i flera vändor rätt ofta med tanke på den area som steppers är gjorda för oftast är mindre. En vanlig siffra när man kollar på steppers verkar vara 26x33mm. Andra jag har sett är 9x33 som sedan använder en scanninsteknik så den kör 9mm brett, sedan flera gånger, tills du får önskad storlek.

Jag har saxat följande text ur Canons white paper för 1D mk3.
APS-H is the largest sensor
that can be imaged in one pass using cutting edge
semiconductor manufacturing technology.
APS-H i 1D mk3 är 28.1x18.7mm. Det ger en rätt stark antydan till att även vanliga 135-formats sensorer faktiskt kräver flera omgångar under litografifasen. Men jag tror faktiskt snarare problemet är defekterna i plattan, snarare än användningen av fler exponeringar i litografin, vilket är kostsamt men väldigt vanligt oavsett.

Vad jag kan läsa mig till utan att göra någon djupdykning så är det finns ett par olika typer av litografi-typer. Contact och reduction. I fallet contat så läggs masken på wafern och exponeras, i reduction fallet så projiceras den. När man skapar komplexa kretsar så används ofta reduction steppers, där masken faktiskt är 5x eller 10 gånger så stor(reduction steppers), som sedan genom optiken projiceras ner till en mindre storlek. Detta för att kunna öka upplösningen på den projicerade masken. Masken kan då tillverkas i en mycket större skala bör man få bättre kontroll över den slutgiltiga kvaliten på detaljerna på själva kretsarna. En större area som exponeras på kislet skulle alltså antingen leda till en mycket större mask, alterantivt sämre kontroll av detaljerna med fler fel som följd. I fallet av reduction-steppers så verkar denna teknik användas för att komma runt upplösningen i optiken som kan bli en gräns om man bara projieras en mask som är lika stor som det exponerade området(1x). Optiken ska ju då klara att ha en upplösning på 45 nanometer. Används en 5x mask så räcker det med att kunna läsa av 225nanometer.

Inte helt olikt en vanlig förstoringsmaskin för negativframkallning faktiskt. Kontaktkartor blir inte helt skarpa, och projicerar du ner ett negativ till en mindre yta erhåller du mer kontroll över skärpan än om du inte reduceras ytan.
 
(26x33mm)

Jag har kollat lite om stitching, men hamnar tyvärr oftast på patentsidor, som jag inte har web-access till. På DALSA däremot fanns faktiskt en del information, eftersom det är en kiselsmedja som är öppen för externa kunder.

DALSA Semiconductor beskriver här sin öppna CCD process, där man bl.a. nämner:
Stitch of multiple stepper fields
We offer advanced technology such as stitching for large devices and more

Stitching handlar här enbart om moment inom litografin, inte om bondning och montering.

Därför förkastas hypotesen om att kommersiella MF backs skulle bestå av två eller flera sammansatta sensorelement. Dessa är alltid monolitiska, men att den litografiska processen i förekommande fall kräver flera exponeringsmasker per lager.

Jag har också hittat samma siffra på stepperns area, som signaturen Damocles:

Om man kollar in typiska IC Steppers ur Nikons sortiment, ser man att de exponerar en maximal yta av (26×33mm), vilket räcker till för att kunna exponera en bricka i formatet APS-H (28.1 x 18.7 mm) som nyttjas i Canon EOS-1DMkIII. Däremot måste en sensorbricka för Canons (24 x 36 mm) och Nikons FX format exponeras i omgångar per masklager, vilket väsentligt ökar kostnaden för de senare sensorstorlekarna.

Studerar vi Hasselblads två olika sensorstorlekar, H3D-31 (44.2 x 33.1 mm) och H3D-39 (49.0 x 36.7 mm), så är det högst troligt att det mindre formatet just valts med anledning av att kunna rymmas inom två pass exponeringar per masklager. CCD-sensorn till H3D-39 kräver fyra maskuppsättningar per lager, medan H3D-31 klarar sig med två. Ur kostnadssynpunkt ser därför den senare mycket intressant ut, eftersom den också kräver lika många exponeringssteg per masklager som en (24 x 36 mm) sensor. Naturligtvis har Hasselblad sensorn en större kiselyta, vilket även drar upp kostnaden.

Jag finner det dock förvånande att inte kameraindustrin satsat mer på en sensorstorlek, som ryms inom en steppers kapacitet på (26x33mm), dvs varför har inte kameror som Leica M8 (27 x 18 mm) resp Canon 1D (28.1 x 18.7 mm) ändå blivit det format som industrin fokuserat mest på?

Canon (24 x 36 mm) samt Nikon FX kommer således att alltid ha nackdelen med en väsentligt högre kostnad för sina sensorer, än för de med sensorformaten mindre än stepperns kapacitet på (26×33mm). Skillnaden mellan (24 x 36 mm) och upp till Hasselblads H3D-31 (44.2 x 33.1 mm) ser jag som mindre, eftersom de bägge dras med dubbla exponeringspass per masklager.

Ref:
 
ANNONS
Spara upp till 12000 kr på Nikon-prylar