Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Skärpedjup mellanformat vs småformat

Produkter
(logga in för att koppla)
Hur tänker du här när du tillämpar nyquistfrekvensen på upplösning? Frekvenser när det gäller ljus är färg inte upplösning. Digitala sensorer kan inte läsa av ljusets frekvens utan bara dess styrka.

Det referar till samplingsteoremet, som lite förenklat kan utryckas som att man måste sampla med dubbla den frekvens som man vill upplösa. Frekvens mäts i fallet optisk upplösning i linjepar per millimeter.
 
Det referar till samplingsteoremet, som lite förenklat kan utryckas som att man måste sampla med dubbla den frekvens som man vill upplösa. Frekvens mäts i fallet optisk upplösning i linjepar per millimeter.

I en svart/vit värld måste väl en pixel räcka. För att få med något i färg är det fördelaktigt om saken är något större. Tittar man på linjalen i D800E-exemplet i D800E-tråden upplöses en millimeterskala på en tummstock som är bara pixeln hög. På en kameror med AA-filter behövs lite mer.

Så du menar att lowpass-filtret till en sensor har med upplösningen att göra?

/Karl
 
Pratar man utskriftkvalitet så skiljer det inget. Däremot har en film inte samma definerbara minsta beståndsdel.

På en sensor är pixeln klart definerad och man kan lätt räkna ut hur stor oskärpecirkeln skall vara för att ge ett skarpt resultat.



Hur tänker du här när du tillämpar nyquistfrekvensen på upplösning? Frekvenser när det gäller ljus är färg inte upplösning. Digitala sensorer kan inte läsa av ljusets frekvens utan bara dess styrka.

/Karl

Frekvens är här antal linjer /mm, inte våglängden hos ljuset.
Jag tänkte inte på detta.
Ett linjepar är här en svart och en vit linje, inget annat.
 
Lågpassfiltret har aldrig en skarp avskärningspunkt. Vill man veta hur AA-filtret arbetar får man jämföra den nakna sensorns MTF-svar med den filtrerade sensorns MTF-svar.

En D800 med filter kan upplösa linjepar ända upp till 200 linjer per mm - men kontrastöverföringen kommer vara nere på ca 0.3 (MTF30) med den styrka på filter som Nikon valt. Vid lite lägre frekvens, kanske 150l/mm kommer kontrastöverföringen ökat till kanske 0.45 (MTF45) - men det är en gradvis glidande kontrastsänkning när man ökar frekvensen mot Nyquist, det finns aldrig någon "avskärningspunkt". Det är till och med så att man kan mäta optiska upplösningar som är < Nyquist x 2 (dubbla upplösningen på sensorn!) genom att korrelera den aliasing som bildas / speglas.

Oftast görs misstaget att man blandar ihop begreppen "upplösningsförmåga" och "upplösning". Det de flesta talar om är "upplösningsförmåga" - som är det antal linjer / linjepar över bilden som kameran klarar att visa med en viss minimikontrast. MTF50 är en sådan här benämning, och då har man bestämt att den lägsta acceptabla kontrastöverföringen (enl. Michelson-kontrasten) är 0.5, eller 50%.

UPPLÖSNINGEN på en sensor kan då vara t.ex 3000x2000 pixlar, men UPPLÖSNINGSFÖRMÅGAN enligt MTF50 kan vara 2400x1600. Ändrar man grundkravet till t.ex MTF30 kanske upplösningsförmågan blir 2700x1800. Sätter man en striktare gräns för överföringskontrast som t.ex MTF70 sänks värdet man får för "upplösningsförmåga".
................

En liten utsvävning, men faktiskt väldigt relevant i denna tråd, då större format (även om de har samma filmkorns- eller pixel-upplösning) oftast får högre MTF-värden för samma bildfrekvens i linjer per bildbredd - det vi ofta kallar för "mikrokontrast".
 
I en svart/vit värld måste väl en pixel räcka. För att få med något i färg är det fördelaktigt om saken är något större. Tittar man på linjalen i D800E-exemplet i D800E-tråden upplöses en millimeterskala på en tummstock som är bara pixeln hög. På en kameror med AA-filter behövs lite mer.

Så du menar att lowpass-filtret till en sensor har med upplösningen att göra?

Slå upp "Shannon-Nyquist" i Wikipedia. Det är en hyfsat bra artikel.
 
Att kalla pixelantal och sensorns sidoförhållande för "upplösning" tycker jag är en styggelse, men jag antar att vi får leva med det.
 
I en svart/vit värld måste väl en pixel räcka. För att få med något i färg är det fördelaktigt om saken är något större. Tittar man på linjalen i D800E-exemplet i D800E-tråden upplöses en millimeterskala på en tummstock som är bara pixeln hög. På en kameror med AA-filter behövs lite mer.

Så du menar att lowpass-filtret till en sensor har med upplösningen att göra?

/Karl

Lågpassfiltret tar bort frekvenser över Nyqvistfrekvensen.
Detta för att förhindra Moiré-effekter.
I CD-sammangang innebär detta att alla frekvenser över Nyqvistfrekvensen filtreras bort. I detta fall 22kHz.
Om inte detta görs kommer frekvenser ovanför 22kHz att speglas ned till det hörbara området. Ex 25 kHz speglas till 19 kHz,
Motsvarigheten till detta förhindras av lågpassfiltret framför sensorn, så att Moiré-effekter minskar.
Nikon D800E har inte detta filter. Detta ger en större upplösning men Moiré-effekter kan uppkomma.
PS
Harry Nyqvuist skrev detta i "Wireless World" på 1920 talet.
Hans föräldrar kom från Småland
DS
Lågpassfiltret begränsar upplösningen samtidigt som den minskar Moiré-effekten.
 
En suddig bild skapad av väldigt många infångade fotoner är i mitt tycke sällan bättre än en skarp bild skapad av något färre infångade fotoner.
Givetvis! Men vad har det med exponering att göra?

"Bildkvalitet" i meningen svinhögt signal/brus-förhållande är inte alltid det man eftersträvar mest. Man måste alltid kompromissa när man fotograferar.
Nä, men nu var det ju du som ansåg att exponeringen var signifikant, inte jag.

Det man måste förstå är att vad som händer på sensorn inte har ett skvatt med generell fototeori att göra. Exponerar du en usel sensor lika mycket som en bra, så är ju exponeringen samma. Att sen själva sensorn ger olika utsignal beroende på konstruktion är något helt annat, men möjligen gör detta att mitt eget resonemang är ännu mer relevant.

Det är INTE antal fotoner (eller signal/brusförhållande) per yta som avgör bildens ljushet. Har du dubbelt så stora pixlar på en dubbelt så stor sensor så räcker det med halva exponeringen för att ha möjlighet (det är här sensorgenerationen spelar in) att inhämta informationsmängden X. Då behöver nämligen signalen från respektive pixel förstärkas lika mycket, trots att ISO-talet är dubbelt så högt på den större sensorn. Alltså säger ISO ingenting intressant om man inte tar med sensorstorleken i den totala beräkningen.

Alltså; exponering GÅNGER yta är det som avgör vilka möjligheter man har att skapa en vettig bild. Har du dubbelt så stor yta så behöver du bara halva exponeringen.
 
Slå upp "Shannon-Nyquist" i Wikipedia. Det är en hyfsat bra artikel.

Jag känner väl till Nyquistteoremet men då från digitalt ljud. Där måste man som sagt ha dubbla samplingsfrekvensen men det är helt olika saker. På ljud måste du ha två punkter i en våg för att det skall gå att återskapa vågen. Som en biildsensor jobbar ser jag ingen som helst anledning till att man skall blanda in Nyquistteoremet antinger fångar en sensor något eller så fångar en sensor inte något, behövs inte två punkter för det hela. Rita en tunn rak linje på ett papper och backa sedan bakåt tills linjen är 1px hög så skall du se att den kommer med.

/Karl
 
Givetvis! Men vad har det med exponering att göra?
Det har med exponeringstid att göra.

Nä, men nu var det ju du som ansåg att exponeringen var signifikant, inte jag.
Exponeringstid är signifikant. Samma bländarvärde inställt på objektivet ger samma exponeringstid oavsett vilken storlek sensorn har.

Det man måste förstå är att vad som händer på sensorn inte har ett skvatt med generell fototeori att göra. Exponerar du en usel sensor lika mycket som en bra, så är ju exponeringen samma. Att sen själva sensorn ger olika utsignal beroende på konstruktion är något helt annat, men möjligen gör detta att mitt eget resonemang är ännu mer relevant.

Det är INTE antal fotoner (eller signal/brusförhållande) per yta som avgör bildens ljushet. Har du dubbelt så stora pixlar på en dubbelt så stor sensor så räcker det med halva exponeringen för att ha möjlighet (det är här sensorgenerationen spelar in) att inhämta informationsmängden X. Då behöver nämligen signalen från respektive pixel förstärkas lika mycket, trots att ISO-talet är dubbelt så högt på den större sensorn. Alltså säger ISO ingenting intressant om man inte tar med sensorstorleken i den totala beräkningen.

Alltså; exponering GÅNGER yta är det som avgör vilka möjligheter man har att skapa en vettig bild. Har du dubbelt så stor yta så behöver du bara halva exponeringen.

Så du menar att om jag tar min ljusmätare och den säger att 1/60s och f/8 är en lagom exponering så behöver jag justera det beroende på sensorstorleken? :)

Alla sensorer är inte linjära så ISO-inställning spelar fortfarande roll.

Självklart samlar en större sensor in mer ljus. Det är tämligen självklart och ingenting som behöver diskuteras, men det är inte heller något jag har vänt mig emot.
 
Jag känner väl till Nyquistteoremet men då från digitalt ljud. Där måste man som sagt ha dubbla samplingsfrekvensen men det är helt olika saker. På ljud måste du ha två punkter i en våg för att det skall gå att återskapa vågen. Som en biildsensor jobbar ser jag ingen som helst anledning till att man skall blanda in Nyquistteoremet antinger fångar en sensor något eller så fångar en sensor inte något, behövs inte två punkter för det hela. Rita en tunn rak linje på ett papper och backa sedan bakåt tills linjen är 1px hög så skall du se att den kommer med.

Signalteori är tämligen universellt och gäller även för optiska system.
 
Jag känner väl till Nyquistteoremet men då från digitalt ljud. Där måste man som sagt ha dubbla samplingsfrekvensen men det är helt olika saker. På ljud måste du ha två punkter i en våg för att det skall gå att återskapa vågen. Som en biildsensor jobbar ser jag ingen som helst anledning till att man skall blanda in Nyquistteoremet antinger fångar en sensor något eller så fångar en sensor inte något, behövs inte två punkter för det hela. Rita en tunn rak linje på ett papper och backa sedan bakåt tills linjen är 1px hög så skall du se att den kommer med.

/Karl

I en sinusvåg kan man t ex mäta max och mini för kurvan,
När det gäller linjepar motsvarar detta svarta och vita linjer..
För en sinusvåg kan man visa att två punkter per period är nödvändigt för att bestämma frekvensen. (Det behöver inte vara max eller minima.) Detta motsvarar en vit och svart linje.
Att visa att det är tillräckligt kräver mer matematik.
Vid den dubbla frekvensen får du en vit pixel (eller max på kurvan) på samma ställe där grundfrekvensen har ett max eller en vit pixel. Det är då man kan få en spegling av frekvensen eller Moiré effekt.
 
Jovisst, hade man haft en sensor som mätte ljusets frekvens istället för en uppsättning av fyra färgblinda sensorer hade jag utan problem svalt det hela.

Då är det snarare elektromagnetism det handlar om.

Ett optiskt system har en viss upplösning vars frekvens brukar mätas i linjepar/mm. Nyquist-Shannons samplingsteorem är fullt tillämpbart även här.
 
Det har med exponeringstid att göra.
Hur då? Du kan använda samma tid på två olika format så länge de fångar in samma mängd ljus totalt. Exponering per yta är fortfarande helt irrelevant.

Exponeringstid är signifikant. Samma bländarvärde inställt på objektivet ger samma exponeringstid oavsett vilken storlek sensorn har.
Ett bländarvärde "ger" inte en exponeringstid. Den väljer du själv och om du har förstått hur saker och ting hänger ihop (vilket du uppenbarligen inte har) så förstår du att en dubbelt så stor sensor klarar av ett halverat bländarvärde eller en halverad tid jämfört med en mindre sensor.

Så du menar att om jag tar min ljusmätare och den säger att 1/60s och f/8 är en lagom exponering så behöver jag justera det beroende på sensorstorleken? :)
Nej, men du kan välja ett annat ISO-tal och därmed en annan exponering om du ändrar sensorytan.
 
Hur då? Du kan använda samma tid på två olika format så länge de fångar in samma mängd ljus totalt. Exponering per yta är fortfarande helt irrelevant.


Ett bländarvärde "ger" inte en exponeringstid. Den väljer du själv och om du har förstått hur saker och ting hänger ihop (vilket du uppenbarligen inte har) så förstår du att en dubbelt så stor sensor klarar av ett halverat bländarvärde eller en halverad tid jämfört med en mindre sensor.


Nej, men du kan välja ett annat ISO-tal och därmed en annan exponering om du ändrar sensorytan.

Den tid och bländare som exponeringsmätare vid givet ASA-tal ger kan användas till alla objektiv.
Så är det för min exponeringsmätare. Undantag för närbilder i skala !:1 eller 1:2 t ex där kompensation görs med längre tid för att kompensera utdraget.
 
Nej, men du kan välja ett annat ISO-tal och därmed en annan exponering om du ändrar sensorytan.
Tyvärr kan jag inte ändra sensorytan på någon kamera i min ägo. Kan du det?

Det är ju det hela diskussionen handlar om. Att man kan vilja kompromissa med att ha en mindre sensor om man får andra fördelar. Och säg inte att man inte får några andra fördelar. I så fall skulle du inte använda en NEX.
 
Den tid och bländare som exponeringsmätare vid givet ASA-tal ger kan användas till alla objektiv.
Så är det för min exponeringsmätare. Undantag för närbilder i skala !:1 eller 1:2 t ex där kompensation görs med längre tid för att kompensera utdraget.
Och? Vad är det du vill komma till?

Tyvärr kan jag inte ändra sensorytan på någon kamera i min ägo. Kan du det?
Nej, det är ju därför du ska jämföra ekvivalenta objektiv, inte objektiv med helt olika bländaröppning som du gjorde.

Det är ju det hela diskussionen handlar om. Att man kan vilja kompromissa med att ha en mindre sensor om man får andra fördelar. Och säg inte att man inte får några andra fördelar. I så fall skulle du inte använda en NEX.
Vilka fördelar talar du om? Enda anledningen att jag valt en NEX är att kamerahuset är litet och att det kan ta objektiv som är anpassade för spegellösa kameror. Det finns ingen fördel med att själva sensorn är mindre än FF för min del, eftersom jag inte vill ha superlånga telen eller kunna få större skärpedjup än vad jag kan få vid f/16-22 med en FF-sensor.

Men om man nu är telefreak så är det fortfarande inte sensorstorleken i sig som ger fördelar. Det är objektivutbudet.
 
Nej, det är ju därför du ska jämföra ekvivalenta objektiv, inte objektiv med helt olika bländaröppning som du gjorde.
Vad som är "ekvivalenta" objektiv är tyvärr inte helt självklart. Det beror på hur man vill använda kameran och obektivet.

Vilka fördelar talar du om?

Som du mycket riktigt gissar så är det förstås storleken (eller snarare litenheten) hos kamerasystemet som är fördelen med en mindre sensor. Som jag redan skrivit tidigare så är ett "komplett" m4/3-system löjligt litet. Jag kan utan ansträngning dagligen ha med mig ett kamerahus, 6 objektiv, två blixtar samt två sökare. Motsvarande blir betydligt svettigare med ett APS-C- eller småbildssystem. Det gör också att jag använder min kamera mycket mer, vilket i sin tur gör att jag tar fler bilder och har roligare.

Att kunna montera nästan vilka objektiv som helst på kameran är inte en primär fördel för mig, utan snarare en bonus. Av ovanstående 6 objektiv är det bara ett som inte är ett m4/3-objektiv. m4/3-objektiven har den stora fördelen att de har autofokus och bländarstyrning samt är mycket mindre än andra objektiv, så jag föredrar helt klart riktiga m4/3-objektiv.
 
Men om man nu är telefreak så är det fortfarande inte sensorstorleken i sig som ger fördelar. Det är objektivutbudet.

Canon EOS 7D, Sony A77 och Olympus E-M5 (m,fl.) har fortfarande fler pixlar per millimeter än Nikon D800, så en liten fördel är det allt.

Men visst är det inte sensorstorleken i sig som ger den fördelen. Det råkar bara vara så att de sensorer som har högst pixeldensitet är små.

(Möjligen finns det kompaktkamerasensorer med ännu högre pixeldensitet, men jag har inte orkat kolla.)
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar