Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Mål för CMOS-sensorer - först bättre än film, sedan bättre än den mänskliga synen...

Produkter
(logga in för att koppla)
Min lilla spydighet var inte riktad till dig :)

OK, men jag tror att även Mikael drivs av samma vilja.

Det är ju såklart så som du säger att antalet bitar "i skärmen" inte har med dynamiken att göra utan med upplösningen av tonerna. Borde ha tänkt efter före.
Inga problem med att svara på det.

De bilder där jag oftast råkar ut för att dynamiken inte räcker till är när jag fotograferar i tex. en stad med höga hus som skuggar och en bit ljus himmel någonstans i bilden. Om jag då exponerar så att himlen precis inte blir överexponerad så är skuggorna allt för mörka och svåra att lätta upp utan att bruset blir störande.

Som jag sade tidigare så brukar jag rädda en sådan bild genom att låta himlen bli överexponerad och sedan göra en svartvit bild. Då kan jag antingen låta himlen förbli överexponerad, det stör inte lika mycket i en svartvit bild, eller så kan jag göra det överexponerade partiet mörkare vilket funkar i en svartvit bild men inte i en färgbild, tycker jag.
Den situationen löser jag allt oftare med hjälp av HDR. Även på frihand går det att ta en snabb serie på 3-5 bilder som sedan Photoshop kan lägga samman med pixelpassning. I CS5 har också HDR-konverteringen blivit mycket bättre. En bra HDR-bild behöver inte skrika HDR längre, utan man får bara bilder med ett större kontrastomfång. Men vi är nog alla eniga om att ett större kontrastomfång vore bättre.

Jag har fler frågor där du kanske kan hjälpa mig nu när diskussionen ändå är igång. Utsignalen från en CMOS-sensor är väl linjär i förhållande till det infallande ljuset medan en analog film har en S-formad känslighetskurva (rätt, fel?). Detta måste väl göra stor skillnad i hur film respektive CMOS-sensorer hanterar högdagrar och skuggor. Jag tycker spontant att det borde vara bättre att ha en S-formad känslighetskurva än en linjär, ett plus för film alltså. Jag har för mig att det finns någon inställning i min kamera som försöker simulera detta, högdagerprioritet tror jag att det kallas..
Fördelen med filmens s-formade kurva är att du slipper det abrupta övergången mellan normalt exponerad och överexponerad bild. Nackdelen är att du komprimerar tonerna allt mer ju mer du överexponerar. Att man sedan oftast lägger på en S-formad kurva vid råkonverteringen är ju bara för att vi ser att bilderna får en bättre separation i mellantonerna. Den sämre kontrasten i hög- och lågdagrar är vi beredda att offra för att få den bättre separationen i mellantonerna.

Men den stora fördelen för råformatet är att jag kan anpassa denna kurva optimalt för olika bildtyper. För ljusa bilder en S-kurva med brant lutning i de ljusaste partierna, för mörka bilder så gör jag en kurva som separerar skuggor bra. Här ser du en kurva först för ljusa bilder, sedan normala och till slut för mörka bilder.
 

Bilagor

  • Ljusbild.jpg
    Ljusbild.jpg
    22 KB · Visningar: 267
  • normal.jpg
    normal.jpg
    21.7 KB · Visningar: 264
  • morkbild.jpg
    morkbild.jpg
    22.8 KB · Visningar: 276
...............................Angående morgondagens cmos, det ryktas på CR att Canon har en BSI backlit sensor 24x36mm stor som kommer att sitta i en ny kamera , en kamera som enligt CR inte kommer i år.
Mig veterligen är detta den första stora sensorn som kommer med BSI och det betyder i så fall att möjligheterna att fotografera i dåligt ljus kommer att bli än bättre än tidigare.

Sony lanserade sin backlit sensorteknik EXMOR R för lite drygt ett år sedan och tekniken finns redan i en del kompakt- och videokameror, däremot inte ännu i de större sensorformaten:

se: http://www.dpreview.com/news/0908/09080601sonycmos.asp

(Studera gärna denna länk om backlittekniken ni som inte kollat på detta tidigare. Första gången jag såg den så frågade jag mig varför man inte lagt kablaget "på baksidan" av sensorn från början. För mig verkade det verkligt konstigt att man lagt en massa "kablage" framför fotodioderna i sensorn som ljuset först måste passera innan det nådde fotodioderna. Men så ser det tydligen ut fortfarande på alla CMOS APS-C upp till FF och mellanformat.)

Enligt dina källor på Dpreview Micke som du refererade till redan i den långa s.k. pixeltråden för några år sedan, som handlade om bruset främst bestämdes av pixlarnas storlek och tekniska egenskaper eller sensorernas totala storlek vid en given teknisk nivå (kamerageneration), så var backlittekniken redan då inget nytt. Då ansåg man att den var avsedd för de riktigt små sensorerna i kompakter och billigare filmkameror.

Då sades att denna backlit-teknik som gör en sensor dubbelt så ljuskänslig (under vissa förutsättningar) endast ger dessa fantastiska egenskaper och vinster om sensorerna är extremt hårt packade med pixlar. Jag lärde mig som sagt detta faktiskt av dig. På större sensorer (läs FF exv.) har sensorns aktiva punkter fotodioderna långtifrån den packningstäthet som finns på kompakternas pyttesensorer, så där är detta problem med att "kablaget" tar upp plats och "skymmer ljuset" en mer marginell fråga.

Så min fråga är om detta med backlitteknik för FF-sensorer är ett marknadsföringsknep av någonting som egentligen inte behövs eller om det är så att detta är en teknik mer för framtiden, då man tänker sig att även FF-sensorerna kommer att packas lika tätt och tätare än det vi idag ser på kompaktsensorerna?
Varför heter det överhuvudtaget "backlit" förrestän? För mig känns det ju som om den ljuskänsliga sidan av sensorn är framsidan och alltid varit det. Nu flyttas äntligen kablaget till sensorns "baksida" där det borde hört hemma från början och det är ju lyckligtvis inte den sidan som ska lysas upp.

Ska bara säga att jag verkligen uppskattat och fortsätter uppskatta att folk som dig, Joakim, Stefan och Lennart m.fl verkligen tar stor del av er tid och sprider kunskap och deltar i debatten. Det är verkligen ni som gör Fotosidan värd att besöka. Därför är det lite synd när det skär sig om skitsaker som det gjort inte minst i denna tråden. Fotosidan är när den är som bäst fullständigt lysande och i sina bästa stunder är den som Lars Kjellberg sade (fritt ur mitt minne): "som en stor internationell studiecirkel". Man kan lära sig enormt mycket tillsammans. Det sade han efter att både han och du Micke faktiskt fått revidera er stenhårda ståndpunkt att det i princip bara var pixlarnas storlek som styrde både brusegenskaper och DR.

Den tråden slutade med en uppmaning om att vi måste hitta normaliserade testmetoder för att överhuvudtaget komma framåt och komma förbi "tyckandet" och förutfattade meningar. Det fick vi sedan när fransmännen lanserade DxO. De lyfte också fram teknikfaktorn som enormt viktig. Det har nämligen visat sig vilket de flesta säkert har fattat idag att det faktiskt går att utveckla och förbättra sensorernas verkningsgrad med en massa metoder, även backlittekniken är ett bevis på detta. Detta visar att vi måste vara ödmjuka åt flera håll. Allt är faktiskt inte skrivet i sten i form av "naturlagar" - även om en del är det. Inte ens alla experterna och gurus har alltid "rätt". Det är många "hypoteser" och förutfattade meningar som har blivit reviderade de senaste 5 åren och även en del av våra mest erkända experter här på FS har fått revidera sina ståndpunkter även om en del föredragit att göra det i det tysta precis som många andra. Det vore synd om vi går miste om detta utbyte för att folk inte kan stå över att slänga skit på varann och påstår man saker så måste man vara beredd på att bli synad och krävd på en förklaring utan att bli förbannad. I det sista står jag helt på din sida.

Skulle som sagt till sist uppskatta mycket om jag kunde få din eller Joakims kommentar på min fråga om backlitteknikens egenskaper och användning. Jag får inte riktigt ihop det.
 
Senast ändrad:
The first reference I now know of to a backside illuminated CCD was by a Naval Research Lab/Westinghouse collaboration published in 1973
Eric Fossum
 
I korthet:
Man lägger "kablaget " på framsidan, eftersom det är den sidan man kan arbeta med.... :) Det fotoaktiva lagret kan inte vara tjockare än ca 5-10µm, sedan kan inte laddningarna transporteras längre.

Vill man sen ha en "ren" kiselyta mot ljuset måste man vända på plattan och slipa ner den till kablaget NÄSTAN tittar igenom. Bearbetningsprecisionen måste hållas inom +/-0.2µm för att allt ska fungera - försök själv slipa till en drygt 800mm² (FF) stor yta så att ingen del avviker mer än 0.2µm från det perfekta... :) Du gör det INTE i en planhyvel kan jag väl meddela.

Om jag minns rätt är den aktiva delen av ytan i 5D2, 1Ds4 och 7D ca 45%, resten täcks av nödvändig ledningsdragning. För att motverka detta använder man "mikrolinser", som ska koncentrera ljuset till de aktiva delarna av varje cell. Detta fungerar ganska bra, effektiviteten i t.ex 1D4 är nästan 95% yt-täckning.

Mikrolinserna måste ju sitta OVANFÖR färgfiltret, så det blir ett avstånd mellan kiselytan och linsen. De fungerar alltså bäst när ljuset kommer in helt rakt mot ytan. Så fort vinklarna ändras lite (10º räcker!) sjunker effektiviteten - linserna koncentrerar då ljuset till fel ställe. Vid 20º brukar effektiviteten i cellen vara ca 30-50%, dvs -1 till -1.5Ev. 20º är ytterkanten på en F/1.4-bländare. Man kommer också ganska nära 20º i hörnen bara genom att använda vidvinkelobjektiv.

Kan man öka den effektiva ytan ställs lägre krav på mikrolinserna > totaleffektiviteten ökar. Med dagens teknik (storsensor, inte kompaktsensor) är vi nere på 0% ledig yta vid ca 2µm stora celler. Vill man mer upplösning måste man alltså krympa - eller bli av med - ledningsdragningen. Merkostnaden för BSI ökar dock exponentiellt med sensorstorleken, så jag tvivlar faktiskt på att det kommer "stora" sensorer med denna teknik i det snaraste. Tekniken har bara varit "stabil" för massproduktion i knappt ett-två år.

Tänk på att en 7D-cell i en FF-sensor hade gett knappa 50MP, det klarar marknadsföringsavdelningen sig på en stund till.
 
Roland: Du får hemskt gärna lägga upp ett exempel från FILM där detta (exemplet med himmel/djup skugga) låter sig göras/presenteras utan problem. Jag vill se detaljering i både himmel och skuggpartier - och du får inte hålla på med manuell pjattning/extralysning...! :)

Det handlar inte om att använda fina ord - det handlar om att göra en faktisk, verklig jämförelse så att att man slipper göra det människan är suveränt bäst på av alla kända varelser. Lura sig själv till att tro saker för att man VILL tro på dem.

Ta en bild med din filmkamera, ta sedan en identisk vy ett par sekunder senare med din digitalkamera. När du sen fått tillbaka film-rullen från labbet (eller framkallat den själv) sätter du dig framför datorn och gör den digitala bilden lika kontrastlös i hög- och lågdagrar som din framkallade papperskopia (som du har i bra ljus bredvid skärmen). När du arbetat med detta en stund detta inser du hur enormt mycket mer information du tar med i en digital bild - bara för att du kan!

Utsignalen från en CMOS är linjär, men i denna form får du som användare aldrig se bilden. En S-kurva är pålagd långt innan du ens börjar tänka på att bildbehandla (innan kurvan som Stefan visade på). Denna S-kurva har sina övre- och undre brytpunkter betydligt längre isär än vad film har, så du får ett mycket större linjärt omfång "mitt i bilden" om vi säger så. Det är detta som lurar ögat - anpassning mot digital bildvisning i stället för print.

Får du störande brus av att lyfta skuggor så snabbt, då gör du nog faktiskt något allvarligt fel. Detta är ett exempel från en av de enklaste kameror som någonsin tillverkats - en kamera med så här dåliga brusprestanda har inte tillverkats på många år (inom APS-klassen). Men så länge jag håller mig på låga ISO kan jag dra saker som hade blivit nästan blockerat svarta i ett vanligt film-foto så långt upp att det ser ut som om de varit hjälp-belysta. Och även om man tittar i helpixelförstoring syns inte tillstymmelse till störande brus.

Kameran är en Nikon D40 (CCD), som är/var allmänt utskälld för sina dåliga brusegenskaper. Första bilden är en normal filmkurva. Den är ganska lik det du får om du väljer "jpg i kamera" med standardinställningar. Andra bilden är samma råfil, men med en annan (också helautomatisk!) framkallning. Den är fortfarande så "ren" att enskilda päls-strån lätt kan urskiljas i orginalstorlek. Detta är ett ganska litet utnitt från en vidvinkelbild.
 

Bilagor

  • LR-standard.jpg
    LR-standard.jpg
    72.7 KB · Visningar: 246
  • LR-HDR.jpg
    LR-HDR.jpg
    79.6 KB · Visningar: 254
I korthet:
Man lägger "kablaget " på framsidan, eftersom det är den sidan man kan arbeta med.... :) Det fotoaktiva lagret kan inte vara tjockare än ca 5-10µm, sedan kan inte laddningarna transporteras längre.

Vill man sen ha en "ren" kiselyta mot ljuset måste man vända på plattan och slipa ner den till kablaget NÄSTAN tittar igenom. Bearbetningsprecisionen måste hållas inom +/-0.2µm för att allt ska fungera - försök själv slipa till en drygt 800mm² (FF) stor yta så att ingen del avviker mer än 0.2µm från det perfekta... :) Du gör det INTE i en planhyvel kan jag väl meddela.

Om jag minns rätt är den aktiva delen av ytan i 5D2, 1Ds4 och 7D ca 45%, resten täcks av nödvändig ledningsdragning. För att motverka detta använder man "mikrolinser", som ska koncentrera ljuset till de aktiva delarna av varje cell. Detta fungerar ganska bra, effektiviteten i t.ex 1D4 är nästan 95% yt-täckning.

Mikrolinserna måste ju sitta OVANFÖR färgfiltret, så det blir ett avstånd mellan kiselytan och linsen. De fungerar alltså bäst när ljuset kommer in helt rakt mot ytan. Så fort vinklarna ändras lite (10º räcker!) sjunker effektiviteten - linserna koncentrerar då ljuset till fel ställe. Vid 20º brukar effektiviteten i cellen vara ca 30-50%, dvs -1 till -1.5Ev. 20º är ytterkanten på en F/1.4-bländare. Man kommer också ganska nära 20º i hörnen bara genom att använda vidvinkelobjektiv.

Kan man öka den effektiva ytan ställs lägre krav på mikrolinserna > totaleffektiviteten ökar. Med dagens teknik (storsensor, inte kompaktsensor) är vi nere på 0% ledig yta vid ca 2µm stora celler. Vill man mer upplösning måste man alltså krympa - eller bli av med - ledningsdragningen. Merkostnaden för BSI ökar dock exponentiellt med sensorstorleken, så jag tvivlar faktiskt på att det kommer "stora" sensorer med denna teknik i det snaraste. Tekniken har bara varit "stabil" för massproduktion i knappt ett-två år.

Tänk på att en 7D-cell i en FF-sensor hade gett knappa 50MP, det klarar marknadsföringsavdelningen sig på en stund till.

Tack för info Micke och Joakim. Där fanns det mycket att läsa i den seminariedokumentationen.
Varför ökar kostnaderna för de större sensorerna exponentiellt? Är det för att bearbetningen är trickig och att man tvingas kassera en massa eller vad? Är det svårare att bearbeta en större sensor än en liten? Tätheten är ju t.o.m. lägre på de större sensorerna. Man borde ju nästan kunna tro att det skulle vara besvärligare med de riktigt små.
 
Man räknar med den ackumulerade effekten av antalet "killer defects" per area per arbetsomgång. Vi säger att det ingår mellan 12-20 större arbetsmoment per sensor, och varje moment innehåller en risk för att stycket du arbetar i måste kasseras. Denna risk kan vara linjär med arean, eller linjär med yttermåttet, eller stå som en konstant.

Så pass många av riskbedömningarna växer med arean att bara en liten areaökning ackumuleras till en enorm riskökning per färdig enhet.

För bara något år sedan år sedan låg yield på maximalt 10-15 st FF-sensorer per 200mm wafer (50-70% ok per wafer), eller 60 APS (90% ok per wafer). Så redan innan du räknat in merkostnaden för toppings (färgfilter, AA, mikrofilter osv) är kostnaden mer än fem gånger så hög för en FF-sensor. Skillnaden är mindre idag när i stort sett all produktion gått över i 300mm-maskiner, men den kan knappast bli mindre än 4x förutom i den utopiska nollvisionstillverkningen.
 
Jag njuter av att läsa inlägg från folk med ditt kunnande Joakim, tack för att du delar med dig och även exemplifierar. Det finns fler duktiga i denna tråd, ta gärna åt er.... det här gillas...
 
Joakim, menar du då att med backlittekniken ställs nya och högre krav på bearbetningsprocessen som kommer göra att kostnaderna på nytt kommer öka istället för minska övertiden som de ju gör när tillverkningsprocesserna fintrimmas när det gäller backlit för FF? Ska vi tolka dina tidigare inlägg så?

Om det är så och effekten av backlit inte är lika dramatisk med dagens packningstäthet på FF som för de pyttesmå sensorerna, så kan man ju förstå om man tvekar att ta detta steg nu rent ekonomiskt. Men om kravet på lika stor eller större packningstäthet som på pyttesensorerna även på FF kommer snabbt så kommer sakerna kanske i ett annat läge. Då kommer man kanske inte runt att ta backlitteknik i bruk även för FF senssorerna och gör man det där så kommer de väl tvingas att följa efter med mellanformatssensorer också.
 
Så här svarar Eric Fossum på BSI, små celler etc
Sten-Åke, frågan är komplex och bla jag har sannerligen lärt mig en hel del sen vi hade "vår gamla diskussion"



here has been a lot discussion on pixel count (all else being equal) and the effect on image quality. Generally it seems the perceived image quality goes up with pixel count, assuming the SNR suffers according to shot noise predictions. The human eye seems to be doing something to process the image and make it loook better than math would suggest.
Improvements like BSI typically improve image quality mathematically and from a perception point of view, by increasing QE and reducing effects orginating from pixel stack height, when comparing two pixels of equal size. At 1.4 um pixel pitch the improvement offered by BSI is small. By 1.1 um pixel pitch, BSI offers a substantial advantage, unless some FSI breakthrough is made. BSI costs more to make so there is motivation for the FSI breakthough.
There are other improvements that come coincidentally with pixel shrink. These include full well density (e- per cm^2), lower read noise, and improved image processing. The negatives include potential lower color quality due to increased cross talk, reduced full well size (e-), and reduced dynamic range.
Mostly smaller pixels are good for reducing chip size and cost for the same or similar pixel counts. For a DSLR where the chip size is sort of fixed, I am not certain small pixels are really better or necessary at this moment, but I suspect it will be better in the long run as image processing / noise-reduction gets better. It is well known I am a strong advocate of deep submicron photon-counting devices (I call them jots) and doing all further integration and processing digitally.
There are also fun tricks to play using small pixels, like multi-lenslet sensors (think Plenoptic), oversampling, etc.
 
Ja det där är verkligen ingen entydigt positiv bild. Vinner man på detta - ja det beror väl på vad man är ute efter om man ska tolka vad Fossum säger. Det finns ju en kostnad som tydligen långtifrån enbart är ekonomisk. Även här kommer man att behöva fråga sig vilken typ av fotograf man egentligen är på samma sätt som DxO-folket uppmanat oss att tänka över sedan dag ett när de gjorde sin betasite tillgänglig för allmänheten. Det ska verkligen bli intressant att se vart detta tar vägen fram över och inte minst hur fort det kommer att gå. Är det någon som tvivlar på att vi kommer att få bakbelysta sensorer i en nära framtid? Sen blir det förmodligen ytterligare ett nytt race med kritik av svagheterna i tekniken och en ny förfiningscykel på det. Spännande!

Tack för info!
 
ANNONS
Sony Winter Cashback hos Götaplatsens Foto