ANNONS
Annons

Hur olika vi kan uppleva en kameramodell

Produkter
(logga in för att koppla)
Jag tycker din analogi har sina klara poänger, med med det tillägget att systemet har en bildprocessor (dvs vår hjärna) som är mycket sofistikerad och kan göra omedelbara analyser av det som fångas in och anpassa både själva insamlingen (ögat ackommodation) och bearbetningen efter omständigheterna - i stort sett i realtid.

Man kan uttrycka det så här: Ögonen är inte så avancerade eller högpresterande, men vår hjärna är fantastiskt duktig på att skapa meningsfull information ur det som ögonen registrerar.

Vad i all världen har då detta med kameror och den här tråden att göra?

Jo, det där är precis åt det där hållet jag misstänker att kamerorna kommer att utvecklas framöver. Visst, vi kommer att få lite bättre sensorer (kanske med tekniken från Fujifilm & Panasonic som nämnts tidigare). Men sensorerna är faktiskt rätt bra idag, i vissa avseenden är det svårt att driva dem så mycket längre utan att det antingen blir oerhört dyrt eller att vi helt får byta teknikspår.

Den stora skillnaden tror jag kommer att ligga i hur mycket vi kan bearbeta fram ur det som framtida sensorer (och objektiv) kan samla in. Vi får hela tiden mer och mer kraftfulla processorer som kan uträtta mer och mer med de data sensorn samlat in. Vi är ännu långt ifrån det våra hjärnor gör med de data våra ögon samlar in, så det finsn rejält med förbättringspoitential här. Plus att framtida kameror också på ett annat sätt kommer vara mer lika våra ögon - de kommer så att säga att videofilma (kontinuerligt samla in bilddata) så att processorn kan skapa stillbilder (eller videoklipp om det passar bättre) ur det dataflöde som hela tiden samlas in.


Att ta fram diskussioner om våra ögon är inte på något vis utanför tråden om man tänker ett steg längre, och det du säger om att människans ögon samarbetar med hjärna för att lokalisera en kanske mäktig vy som ett landskap, som förmodligen var viktigt för våra förfäder när dom spanade efter middagen, hunddjur är duktiga på att uppfatta rörelser bättre än vi människor, men våra hjärnor samarbetar med minnet när vi flackar med blicken över ett stort område.

Nu kommer vi tillbaka igen till avdelningen onödiga finesser eller ej, för moderna kameror har redan börjat med att försöka kopiera våra hjärnor, lite grann som du är inne på, auto+ är en ganska ny funktion på flera modeller där mera uträkningar görs för att man skall slippa själv.

Digital foto för alla ( Bonniers )- har låtit en expert försöka att göra bilden bättre än vad kamerans automatikläge klarar. i försöket användes en A77 och fotoexperten gjorde en del motiv bättre så klart men till förvåning så vann även kamerans automatik vid flera motiv. Hur mycket detta nu är värt vet jag inte, men vi skall nog inte skratta för mycket åt vissa finesser för det kan fastna i vrångstrupen. Att det råkade vara en A77 vid försöket är nog mera en händelse så det menas inget speciellt för att det vid tillfället var en Sonymaskin, kunde lika gärna varit en Nikon eller en Canon.


//Bengt.
 
ANG. Skärmar och antalet pixlar och utskrivna bilder. så var det så att jag under ett år använda en gammal kontorsskärm Fujitsu siemens med 1280 i upplösning. när jag senare köpte mig en fotoskärm ASUS PA 248Q 24,1 IPS med upplösningen 1900 x 1200 och 100% srgb så framstod mina bilder betydligt bättre, det var som jag hade fått en helt ny kamera, vilken studs i färgerna, sänder jag mina bilder till brorsan billiga skärm, så är dom inte i närheten av vad min skärm visar.

//Bengt.
 
Ang det där som nyss avhandlats här med organiska sensorer eller backlit-teknik så är fördelen som de ger ytterst marginell. Lite mer vits är de på de riktigt pixeltäta små sensorerna där ytan som ledningsdragning på framsidan kan bli en faktor att räkna med, men på småbild eller APS-C i upplösning på bara 24 megapixel eller så, utgör den samlade förlorade ytan bara en liten del, gisningsvis 10% eller så, vilket inte är speciellt mycket så att det har någon stor betydelse.

Avsevärt större del av ljustappet utgörs av Bayer-filtret. Där filtreras ju 2/3 av ljuset bort. Det går ju att öka på ljusinsamlingen där genom att göra färgfiltren mer överlappande så att visst ljus av flera våglängder kommer ner i alla tre färgernas brunnar, eller att göra det gröna området lite mer omfångsrikt eftersom det är två av dessa. Allra mest ljus skulle man ju få in om alla färger släpptes in i alla brunnar, men då skulle man ju få monokroma bilder.

Det är ju det här som Nikon gör med Sonys sensorer och lyckas få in mer ljus och därmed bättre lågljusprestanda på bekostnad av färgrenhet och i viss mån ett litet grönstick vid hög signalförstärkning.

Nu för en tid sedan presenterades ju här en alternativ teknik där RGB-filter inte behöver användas och det istället används en annan teknik för färgseparation. DET är en sak inom sensorutvecklingen som verkligen skulle kunna göra skillnad. Hur har det gått med det? Var ett tag sen det var uppe som nyhet.

Sigma Foveon drar ju iofs. också mer nytta av ljuset utan bortfiltrering, men på bekostnad av bl.a. upplösning och andra saker istället.

Det känns som det är dags för ett sådant genombrott i tekniken nu som i ett slag skulle närmast fördubbla prestandan. Backlit, gapless och andra förfiningar ändrar ju inget i grunden utan påverkar bara på marginalen och då tekniken utvecklats så mycket finns inte så mycket mer att hämta där egentligen.

Ögon har f.ö. ett annat tillkortakommande som viss av dagens kameraoptik klarar, nämligen att zooma :)


/Mats
 
Det där med zoom berörde jag ju lite i min öga/videokameraanalogi i ett tidigare inlägg. :)

---
I sin funktion motsvarar ögat också närmast ett fast objektiv, även om dess brännvid i och för sig ändras. Dock betyder detta inte att man får den effekt vi förknippar med "zoomobjektiv" - denna brännviddsförändring används som bekant istället till att fokusera med.
---

F.ö. är väl det största problemet med Foveon snarare att ljusbortfallet blir betydligt större än med Bayerfilter, eftersom det mesta ljuset där måste gå igenom fler lager, inte bara ett. Det blir mycket större problem med "färgöverhörning", så det behövs avancerad bildprocessing. Upplösningen blir HÖGRE än för en sensor med Bayer-filter, men den blir tydligen i praktiken snabbt väldigt brusig så fort man höjer ISO-värdet (får väl själv ta och testa den DP1:a jag har liggande...). På låga värden (dvs i bra ljus) är den tekniken däremot kapabel att ge häpnadsväckande bra bildkvalitet, hävdas det (på nätet och i tidskrifter).
.
 
Senast ändrad:
Nja, antalet filtreringar är ju inte intressant, bara hur många fotoner som filtreras bort. I Foveon-falletsamlas totalt sett mer ljus då de övre lagren släpper igenom också det som kommer till de undre. Man kan ju också säga att i Bayerfallet får man högre upplösning då varje 4-pixels cluster beräknas till 4 individuella pixlar genom demosaicing, men det är ju beräknade pixlar och inte riktiga.

Nåja, olika tekniker med sina egna specifika för- och nackdelar. Foveon har ju inte riktigt slagit igenom, vet inte om det beror på att tekniken inte håller eller om det beror på rättigheter och patent osv. Skulle tro att en större sensortillverkare med mer resurser skulle kunna göra mer med den tekniken än en liten som Sigma, så att vi skulle kunna ha bättre Foveon än idag. Ett problem lär ju vara att färgseparationen i te blir lina noggrann.

kommer inte riktigt ihåg vad det här nya var, annat än en annan teknik för att få ut färginformationenän att filtrera bort en massa. Det är i allafall en i grunden annan teknik som skulle kunna ge ett stort lyft jämfört med att ytterligare förfina den befintliga tekniken som per design slänger bort 2/3 av allt ljus.

Miissade att ögats brist på zoomning varit uppe. Tycker kantskärpan i ögonen är rätt dålig också och synen färgvinjetterar ju också en hel del så att det faktiskt är svartvitt i utkanterna av synfältet, samt att upplösningen sjunker. Lite svårt att kolla egentligen för blicken flyttas lätt automatiskt till sidan när man försöker "se" hur bilden är i kanterna. Informationsmängden är dock inte alls så bra i periferin.


/Mats
 
Nja, antalet filtreringar är ju inte intressant, bara hur många fotoner som filtreras bort. I Foveon-falletsamlas totalt sett mer ljus då de övre lagren släpper igenom också det som kommer till de undre.

Men fortfarande får de undre lagren, dvs vissa färger, bara en del av ljuset, så skillnaden blir i praktiken inte så stor som man först kan tro.

Man kan ju också säga att i Bayerfallet får man högre upplösning då varje 4-pixels cluster beräknas till 4 individuella pixlar genom demosaicing, men det är ju beräknade pixlar och inte riktiga.

I början framhölls det som en stor fördel för Foevon att de inte behövde interpolera färger, deras pixlar var mer "äkta". Sedan har det visat sig i praktiken att man med Foevon - bl.a. på grund av saker som crosstalk som Gunnar nämnde där ljus smiter iväg i sidled till fel pixlar - i praktiken tvingas räkna och interpolera minst lika mycket som man gör med en Bayer-sensor för att få fram en bra bild.

Nåja, olika tekniker med sina egna specifika för- och nackdelar. Foveon har ju inte riktigt slagit igenom, vet inte om det beror på att tekniken inte håller eller om det beror på rättigheter och patent osv. Skulle tro att en större sensortillverkare med mer resurser skulle kunna göra mer med den tekniken än en liten som Sigma, så att vi skulle kunna ha bättre Foveon än idag. Ett problem lär ju vara att färgseparationen i te blir lina noggrann.

Det är väl en blandning av faktorer, bland annat de du nämner. Men man kan nog lite generellt säga att Foeveon var en relevant teknik på den tiden då vi hade stor brist på upplösning (dvs då vi hade mindre än fem-sex megapixel). Men när vi idag kan vräka på med 20-30 megapixel (och snart mer) blir det helt enkelt mer praktiskt att arbeta med den enklare Bayer-tekniken. Foeveon blir bara ett dyrt och krångligt sätt att ge oss mer upplösning - något vi som sagt inte har någon brist på längre.
 
Miissade att ögats brist på zoomning varit uppe. Tycker kantskärpan i ögonen är rätt dålig också och synen färgvinjetterar ju också en hel del så att det faktiskt är svartvitt i utkanterna av synfältet, samt att upplösningen sjunker. Lite svårt att kolla egentligen för blicken flyttas lätt automatiskt till sidan när man försöker "se" hur bilden är i kanterna. Informationsmängden är dock inte alls så bra i periferin.


/Mats

Hade tidigare läst om detta med zoomning av ögat (eller bristen därav) som jag tyckte var intressant:

"Varför finns det inte något djur som har funktionen optisk zoom inbyggt i sitt öga? Det borde vara en en nyttig funktion att kunna observera t.ex. ett bytesdjur eller ett rovdjur på långt avstånd? Är det för komplicerat att utveckla?

Du har rätt att det inte finns några djur med zoomoptik i sina ögon. Djuren har i stället mycket effektivare lösningar på problemet att se både detaljrikt och vidvinkligt. Zoomobjektiv är bra på kameror eftersom fotografisk film och digitala bildsensorer arbetar med samma bildskärpa över hela bilden (filmens kornighet eller CCD-plattans pixlar ligger lika tätt i alla delar av bilden). Med ett vidvinkelobjektiv blir det då inte så många pixlar för att avbilda t.ex. ett avlägset ansikte. Men om man byter till ett teleobjektiv, eller zoomar in med sitt zoomobjektiv, så kan ansiktet avtecknas med betydligt fler pixlar, och därmed bättre detaljrikedom.

Djurens ögon har inte problemet med en viss given pixeltäthet över hela bilden. Istället kan näthinnans motsvarighet till pixlar vara extremt små och tätpackade i vissa delar av synfältet, medan de är stora och färre i andra delar av synfältet. På det sättet kan det mänskliga ögat urskilja detaljer som det krävs mycket långa teleobjektiv för att avbilda med en kamera. Samtidigt har vi att synfält som motsvarar ett extremt vidvinkelobjektiv. Vi ser alltså både detaljer och översikt på samma gång, vilket är mycket bättre än zoomobjektivet som måste ställas in för antingen det ena eller det andra, men inte kan klara båda uppgifterna samtidigt. Varierande pixeltäthet som i människans och andra djurs ögon ger dessutom mycket mindre och lättare linser.

Med bättre digitala bildsensorer tror jag framtidens kameror kommer att kunna fungera mer som ögonens näthinnor, och då behövs inte längre de klumpiga zoomobjektiven. 2008.

Dan-E. Nilsson"
http://www.djur.cob.lu.se/Svar/Sinne.html#zoom
 
Hade tidigare läst om detta med zoomning av ögat (eller bristen därav) som jag tyckte var intressant:

"Varför finns det inte något djur som har funktionen optisk zoom inbyggt i sitt öga? Det borde vara en en nyttig funktion att kunna observera t.ex. ett bytesdjur eller ett rovdjur på långt avstånd? Är det för komplicerat att utveckla?

Du har rätt att det inte finns några djur med zoomoptik i sina ögon. Djuren har i stället mycket effektivare lösningar på problemet att se både detaljrikt och vidvinkligt. Zoomobjektiv är bra på kameror eftersom fotografisk film och digitala bildsensorer arbetar med samma bildskärpa över hela bilden (filmens kornighet eller CCD-plattans pixlar ligger lika tätt i alla delar av bilden). Med ett vidvinkelobjektiv blir det då inte så många pixlar för att avbilda t.ex. ett avlägset ansikte. Men om man byter till ett teleobjektiv, eller zoomar in med sitt zoomobjektiv, så kan ansiktet avtecknas med betydligt fler pixlar, och därmed bättre detaljrikedom.

Djurens ögon har inte problemet med en viss given pixeltäthet över hela bilden. Istället kan näthinnans motsvarighet till pixlar vara extremt små och tätpackade i vissa delar av synfältet, medan de är stora och färre i andra delar av synfältet. På det sättet kan det mänskliga ögat urskilja detaljer som det krävs mycket långa teleobjektiv för att avbilda med en kamera. Samtidigt har vi att synfält som motsvarar ett extremt vidvinkelobjektiv. Vi ser alltså både detaljer och översikt på samma gång, vilket är mycket bättre än zoomobjektivet som måste ställas in för antingen det ena eller det andra, men inte kan klara båda uppgifterna samtidigt. Varierande pixeltäthet som i människans och andra djurs ögon ger dessutom mycket mindre och lättare linser.

Med bättre digitala bildsensorer tror jag framtidens kameror kommer att kunna fungera mer som ögonens näthinnor, och då behövs inte längre de klumpiga zoomobjektiven. 2008.

Dan-E. Nilsson"
http://www.djur.cob.lu.se/Svar/Sinne.html#zoom

Mycket intressant!
Det mänskliga ögat har i sig själv ingen möjlighet till det vi kallar ”zoomning”, alltså förstoring, utan det är hjärnan som vid behov koncentrerar blicken på något, som vi vill extra iakttaga, detaljstudera, då tycks föremålet komma närmare än tidigare, det medför att en viss extra effekt behövs, vi blir trötta, alltså det går inte att sitta på spaning hela dagen.
Till vår hjälp tar vi då fram kikaren.

Vad som är säkert, - morgondagens digitala kameror kommer att bygga på ögats sätt att ge oss information, eventuellt liten variation i brännvidder, fast optik, med höga upplösningar på sensorerna gör att kamerans processor kan förstora (cropping), utan att pixlarna syns, istället för att vi nu idag använder långa brännvidder.

Nästa steg, - kameran rullar ut själv för att fotografera, vi matar in på kamerans gps, anger plats, motivval och antal önskade bilder, skickas ”live” till plattskärmen där hemma …
 
Dessutom skall det göra sensorerna mindre känsliga för att ljus kommer infallande i vinkel, vilket dels gör det allmänt lättare att använda många äldre objektiv (sådana som är måttligt telecentriska) samt alla riktigt ljusstarka objektiv (typ större maxbländare än 1,8) och - kanske mest intressant - det gör det enklare att arbeta med objektiv som av olika skäl behöver ha sin bakända väldigt nära sensorn ... Som när man vill bygga kompakta vidvinklar till spegelfria kameror :)



Nu fick vi ett svar på det här från Joakim i ett annat sammanhang, men det här är som sagt en helt annat tanke än BSI och som har den stora fördelen att vara mycket enklare att tillverka än BSI. Man kan säga att det är ett annat sätt att lösa samma grundproblematik (med de djupa sensorbrunnarna i traditionella sensorer).



Det de nämnde i pressmaterialet var ju än så länge en ganska marginell fördel jämfört med traditonella sensorer, inte ens 1/3 steg. Det teoretiska SN-ratiot de nämnde skiljer sig inte så drastiskt från vad andra tillverkare uppger för sensorer vi har redan idag.

Men visst, det är en förbättring och det är en oerhört intressant teknik. Inte minst eftersom problemet med djupa sensorbrunnar (som det här, liksom BSI, är ämnat att lösa) tilltar med högre sensorupplösningar. Och högre upplösningar vill vi ju ha :)

Den enda klocka som ringer här för mig var ju som jag tror det var Joakim skrev att eftersom det handlar om att lägga på en film på sensorerna som man haft problem med åldrande med, så kan ju det vara ett aber. Det återstår ju att se om den tappat sina egenskaper inom några år eller inte. Det vore ju inte så kul även om många ju bytt kamera innan det skulle skett oavsett om det skulle inträffa efter bara ett par år.

För övrigt är i allmänhet det mesta av förbättringarna som sker en ständigt pågående förfining. Det är rätt långt mellan de riktigt stora paradigmskiftena som helt ändrar spelplanen, vilket inte hindrat att det kunnat ske rätt stora förbättringar över tiden steg för steg. Tittar vi på både DR och brus så har det faktiskt hänt en hel del när det gäller APS-C-stora och mindre sensorer. FF har tenderat att släpa lite eftersom det är längre mellan teknikgenerationerna i det segmentet.
 
Senast ändrad:
Hehe, jag håller med dit till stora delar, men inte fullt ut.

För några år sedan tittade jag på några av mina gamla Kodachrome 25-diabilder vid ett besök hos en bekant, som fortfarande hade kvar sin fina Leitz Pradovit-projektor. Det finns ingenting, ABSOLUT INGENTING inom den digitala världen som kan matcha ett bra dia projicerat i ett mörkt rum! Åtminstone har jag inte sett vare sig någon bildskärm eller digital projektor som kan.

Och när det gäller pappersförstoringar - jag vet inte hur man även med de bästa digitala skrivare och papper kan få fram svartvita bilder med samma "stuns" som är möjligt med den gamla kemiska tekniken (för den som kan sina saker). Lägger man även den bästa möjliga digitala svartvita bild bredvid en bra gjord analog, så ser den digitala mesig ut...

Men trots detta så får den analoga tekniken verkligen kämpa för att kunna hänga kvar. Dock rapporteras det från flera håll om ökande försäljning av analoga filmer och papper på senare tid. Vilket jag anser vara positivt, även om den med säkerhet kommer att förbli en liten nisch. Den digitala teknikens ekonomi, snabbhet, bekvämlighet, miljövänlighet och med alltmer användbara resp. knasiga funktioner som det ökande elektronikinsläget kommer att medge, gör förstås att den digitala tekniken kommer att vara helt dominerande.


Och håller givetvis med dig fullt ut om Grevtures inlägg. Tillhör högtidsstunderna att läsa här på Fotosidan, bland alltför mycket snömos (särskilt på senare tid) ...
.

Visst, men det innebär ju i så fall att dina diabilder varit stabila fast de tagits på exv. 70-talet och det har i alla fall inte en stor del av mina varit. Värst är mina Echtacrome tror som jag tagit senast (på 2000-talet). Kodachromerma var väl en aning bättre dock. Mina Agfa-bilder är dock klart bättre trots att en del tagits redan på 70-talet. Detta säger jag sedan jag börjat skannat in en del. Hur det såg ut när de satt i ramarna ska vi inte tala om. Gråvit dimma. Alla ramar måste demonteras innan det finns någon kvalitet i de bilderna överhuvudtaget. Jag är inte imponerad.

Dessutom har jag noterat att exakt samma objektiv (Pentax SMC) som jag tidigare hade till min Pentax funkar klart mycket bättre ihop med min NEX än de någonsin gjort med min ME. Skälet är ju förstås att jag bara hade snittbild och mickroprismor att tillgå och ingen peaking med fokusstöd (förstoringsläge). Jag pratar om exv. 100mm/2,8:an som nog är mitt vassaste objektiv. Inte alls lika imponerande i de dia jag tagit med detta.
 
Var det inte så att tidiga ASA 400 film var ganska så korniga, under lång tid fick man använda 25:an och 64.an för att få hygglig skärpa, man var länge rädd för prova både 100 och 200 film för dom kostade trots allt en del pengar. kan minnas fel men dröjde det inte till nittotalet innan 400 film blev riktigt skarp. dom populära mera Zoomrika Pentaxkompakter som kom med zoom upp till 140mm, rekommenderades ofta 400 film till dom för att ljusstyrkan var så dålig vid längsta tele.


Det var väl på gång med ASA800 film som skulle vara bra, men det var redan då lite på upphällning med Analoga kameror. Här kan jag mycket väl tänka mig att det digitala gav helt andra möjligheter vad gäller Lågljus-prestanda även om det tog sin tid om man tänker efter. Kanske inte helt omöjligt att vi i dag kunnat haft mycket högupplöst film om inte det digitala kommit in på marknaden, runt 2004-2005 var inte Lågljus-prestandan så där jättebra, så analog film hängde väl med betydligt bättre på den tiden.


//Bengt.
 
... Det återstår ju att se om den tappat sina egenskaper inom några år eller inte. Det vore ju inte så kul även om många ju bytt kamera innan det skulle skett oavsett om det skulle inträffa efter bara ett par år.

Äsch, du minns väl engångskamerorna? :)

För övrigt är i allmänhet det mesta av förbättringarna som sker en ständigt pågående förfining. Det är rätt långt mellan de riktigt stora paradigmskiftena som helt ändrar spelplanen, vilket inte hindrat att det kunnat ske rätt stora förbättringar över tiden steg för steg. Tittar vi på både DR och brus så har det faktiskt hänt en hel del när det gäller APS-C-stora och mindre sensorer. FF har tenderat att släpa lite eftersom det är längre mellan teknikgenerationerna i det segmentet.

Det jag tycker är lite märkligt är att det fortfarande finns en del (färre och färre, men dock) som argsint klagar över (fritt översatt från engelska) "det besinningslösa megapixelracet", ofta med en sur kommentar om att tillverkarna istället borde ägna sig åt viktiga parametrar som dynamiskt omfång. Men när man faktiskt tittar på utvecklingen de senaste tio åren är ser man just inget megapixelrace alls - bara en ganska lugn och sävlig gradvis ökning av upplösningen (för de som tvivlar: tänk på att 36 megapixel faktiskt inte ens är en fördubbling av upplösningen jämfört med 12 megapixel). Faktum är ju istället att just saker som DR och brusegenskaper generellt utvecklats snabbare än upplösningen :)

Jag håller med om att småbildssensorerna släpade efter i början, men från runt 2009 och framåt har det funnits sådana som stått sig bra i prestanda, inte bara sett till hela ytan, utan även per kvadratmillimeter. De sista åren har ju många av småbildssensorerna byggts med i stort sett identisk teknik som aps-c-sensorerna (och mindre) vilket gör att prestanda skalar ganska bra i relation till sensorytan.
 
Även om dagens kameror är bra så finns det mycket kvar.
Jag har en av de bättre (D600), men tycker ändå i te det räcker till. Fotograferade Kyokushin-SM inomhis med 120-300/2,8 och fick ha ISO 3000 för att få vettiga tider på 1/640s sisådär. Det tar bort detaljer och inför brus, så är det. Det är ändå ett ganska extremt objektiv som de flesta inte har, så för gemene man med en enklare kamera fungerar det helt enkelt inge vidare.

Upplösningen räcker till, men lågljusprestandan kunde gott och väl förbättras radikalt tycker jag. Dagens grejer duger inte helt enkelt. För att det ska bli möjligt med kraftig förbättring krävs ett teknikskifte som i ett slag fördubblar prestandan och att det dessutom utvecklas "som vanligt" med små förbättringar.

36 megapixel är ju 3 gånger så många bildpunkter som 12 så det är väl visst mer än en fördubbling av upplösningen? ;-)

Förstår att du avser kvadraten, men "enheten" för upplösning är ju megapixel så då är väl dubbelt såmånga sådana just en fördubbling...

Intressant det där med referensen till ögat av Dan E Nilsson!
Fanns en massa roligt att läsa där.

Har dock för mig att jag sett i en naturfilm om örnar att de faktiskt har en zoomfunktion med ett teleläge för att se små bytesdjur på marken högt uppifrån.


/Mats
 
"Enheten" för upplösning är linjepar per millimeter.

Aha. Så du menar att t.ex en Canon 7D har högre upplösnin än t.ex. Sony A99 eller Nikon D800 med för den delen?

Undrar om man får det svardt om man går in i en fotoaffär o h frågar...

Det här har varit uppe förr. Då hävdade jag att upplösning är just samma sak som pixeltäthet, men jag blev kraftigt emotsagd att så var det inte alls så jag tog till mig den "sanningen".

Nu är det t ärtom. Om jag hade varit konspiratorisnt lagd så skulle jag kunnat inbilla mig att vad jag än säger så ska det sägas emot... :)


/Mats
 
För att det ska bli möjligt med kraftig förbättring krävs ett teknikskifte som i ett slag fördubblar prestandan

Nu var du väl ändå onödigt försiktig, ett stegs förbättring räcker ju inte långt :)

Många av oss som länge fotat den här typen av aktiviteter (snabba rörelser i kass belysning) (eller "sport" som det ofta kallas :) ändå har fått uppleva en makalös utveckling senaste 20 åren med många fördubblingar av alla möjliga aspekter av prestanda - ljuskänslighet, dynamiskt omfång, färgteckning, autofokus över huvud taget och snabb autofokus i synnerhet, snabb serietagning, snudd på oändligt långa filmrullar osv. Plus att avancerad utrustning (som ljusstarka objektiv) tvärt emot vad många tror faktiskt har blivit billigare (sett på lång sikt).

36 megapixel är ju 3 gånger så många bildpunkter som 12 så det är väl visst mer än en fördubbling av upplösningen? ;-)

Förstår att du avser kvadraten, men "enheten" för upplösning är ju megapixel så då är väl dubbelt såmånga sådana just en fördubbling...

Det är ju många som lite oreflekterat bara ser siffran och tänker "oj så mycket" - du har ju ändå klart för dig hur relationen mellan megapixel och upplösning egentligen ser ut. Ser vi till prestanda till exempel i meningen "hur stor färdig bild kan jag visa upp/publicera" eller "hur mycket kan jag beskära" så bör man titta på den verkliga upplösningen, alltså linjer/mm. Och då måste vi fyrdubbla antalet megapixel för att få en fördubblad upplösning. Som från 6 till 24 megapixel, eller från 12 till 48. Det är därför jag tycker det känns lite roligt att det blev en sådan hysteri när vi gick från 24 megapixel som toppvärde till 36 - sett till upplösning är det faktiskt en ganska beskedlig ökning. Att gå från 24 till 96 megapixel (en ökning med 72 megapixel) hade varit en fördubbling av upplösningen, att bara öka med 12 megapixel är ju i det perspektivet rätt mesigt :)
 
Aha. Så du menar att t.ex en Canon 7D har högre upplösnin än t.ex. Sony A99 eller Nikon D800 med för den delen?

Undrar om man får det svardt om man går in i en fotoaffär o h frågar...

Det här har varit uppe förr. Då hävdade jag att upplösning är just samma sak som pixeltäthet, men jag blev kraftigt emotsagd att så var det inte alls så jag tog till mig den "sanningen".

Nu är det t ärtom. Om jag hade varit konspiratorisnt lagd så skulle jag kunnat inbilla mig att vad jag än säger så ska det sägas emot... :)


/Mats

Den teoretiska ökningen i upplösning med 3x så många pixlar blir 1,73 gånger ökad upplösning då den mäts i en dimension. Egentligen är det linjer per mm då det behövs en vit yta mellan linjerna för att linjen skall finnas. Många i fotografkretsar betraktar den svarta linjen och det vita avståndet som ett linjepar - därav begreppet linjepar. Sedan p g a teknik, optikbrister mm så uppnås sällan denna skillnad i praktiken. Definitionen är oberoende av sensorformat. Sedan är inte alla JPEG motorer lika bra att få fram detaljerna och detaljupplösningen i samband med brusreducering förtär en del - men detta vet du redan Mats.
 
Jodå, jag vet hur det hänger ihop liksom alla andra i den här tråden, så det är lugnt.

Bara att tidigare fördes just den här diskussionen och det ansågs då självklart att upplösning specifieras just med megapixel och inte är kopplat till sensorns storlek. Olika stora sensorer kräver olika brännvidd för att få samma utsnitt, men om man har fyllt bilden med ett isst motiv så är det just pixelantalet den är uppbyggd av som bestämmer t.ex. hur stora printar man kan göra och därför är linjetätheten eller densiteten som du beskriver helt enkelt en annan storhet än upplösning.

Om motivet sedan inte är skarpt pga brister i optiken och det inte går att urskilja detaljer visar snarare att man inte kunnat utnyttja kamerans upplösning. En suddig bild på 24 megapixel har lika hög upplösni g som en skarp med samma pixelantal.



Om upplösning mäts ii megapixel som är en linjär skala så betyder det att om megapixelantalet är dubbelt så stort så är upplösningen dubbelt så hög.

Att olika objektiv klarar att urskilja linjer osv är en helt annan sak. Man måste inte ens fotografera för att skapa en bild. Om jag ritar en bild i Paint så är det ju inte samma upplösning på den om jag ena gången gör den 1000x1000 pixlar och andra gången 100x100. Eller hur?

Me som sagt, inga problem med hur tek iken hänger ihop, bara semantiken. Det var just för att jag fick på skallen sist och fick ge mig när jag hade den uppfattningen som du och Per framför som jag dristade mig att säga emot ;-)

Den korrekta beteckningen för det som du beskriver o h kan utläsas ur MTF-diagram osv är helt enkelt inte "upplösning", utan något annat.
/Mats
 
Fast megapixel är inte synonymt med mätning av upplösning i linjer per mm. Man kan ha ett högt megapixelantal men t ex ett starkt AA filter och kan då inte urskilja samma antal l/mm som en sensor med förre mp och svagare/inget AA filter med samma objektiv. Som upplösning mäts är ju detta korrelerat till mp i praktiken i regel varför man slarvigt kanske kan säga att t ex 24mp har högre upplösning än 18mp men detta förutsätter en massa saker förstås - lika bra objektiv, liknande AA filter mm mm.

Kan en bild verkligen ha en upplösning på x mp? Den kan ha så många men kan man urskilja en viss detaljtäthet?
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar