Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

digital för 40.000:- !?

Produkter
(logga in för att koppla)
Det var någon här som hade gjort en karta över vilka fillmer som krävde vilken dpi på scannern för att kunna urskilja alla detaljer, för provia tror jag den siffran låg på typ 4900dpi, och det inkluderade nyquist gränsen...(funkar kort så att det behövs alltid minst två rader pixlar för att kunna urskilja en linje, så scannern måste alltid ha minst dubbla upplösningen mot det som ska scannas.

Men 4900dpi ger altså en bild på 4630x6945 = 32MP
Och det faktiska detaljfupplösningen i denna borde altså då vara 16MP.

Sen tillkommer ju andra saker som detrakterar från skärpan, planhållning av film, rörelseoskärpa, inperfektioner i objektiven, osv.

Så frågan är igentligen hur mycket skillnad 11MP - 16 MP gör när man tar med dom andra sakerna i beräkningar. För att inte tala om att många generellt tycker att en bild med lägre brus ser bättre ut en en med mer.... eller korn för den delen.

Men för alla praktiska syften så är 35mm film besegrad,även om vissa typer av förstoringar kanske göres bäst med trumscanner för att denna kan lämna extremt högupplösta bilder(även om detaljupplösningen inte är bättre än vid en lägre skanning), men detta gäller väl i första hand extremt stora printrar som husväggsstorlek och sånt, vilka då troligen ändå görs från ett större mellanformat.
 
hansen2 skrev:
Har för mig att jag läste någonstans att det mänskliga ögat "ser" 120 miljoner pixlar ?
Mina kunskaper på det här området är begränsade så om detta är sant eller ej känner jag inte till.

/Johan

Den siffran kanske de fick fram när de mätte stålmannens ögon :)
 
nä det stämmer, 120mp ligger gränsen för vad ögat kan uppfatta, en dataskärm med upplösningen 120mp kan inte skiljas från verkligheten (av ögat).
 
HÄRJEDALEN skrev:
Hallå!

Jag var o pratade med en fotograf av det äldre gardet och pratade lite digital v.s system.

Jag har ju en Minolta Dynax 5...
Då menar han att prestandan och slutresultat med en liknande kamera motsvarar en digitalare för runt 40.000:-

Är det så att digitalkameror fortfarande ligger tekniskt sett långt bakom systemkameran?

Säg inte att det beror på bilden eller fotografen eller komposition...
Utan tekniskt sett nu.

Jag som lekman kan inte veta men det gör kanske du?

Vad tror du?
Du kan även vända på situationen och säga: Ska du ha en digital bild som blir c:a lika bra från en dynax 5 som på t.ex en 300D behöver du ha en skanner som kostar 80000 kr, lägga ned flera timmar med arbete och ha en 5x bättre dator och ändå har du mindre kontroll.
 
Re: Re: digital för 40.000:- !?

KanonCanon skrev:
Du kan även vända på situationen och säga: Ska du ha en digital bild som blir c:a lika bra från en dynax 5 som på t.ex en 300D behöver du ha en skanner som kostar 80000 kr, lägga ned flera timmar med arbete och ha en 5x bättre dator och ändå har du mindre kontroll.

Det går väl ändå inte att jämföra? Vem tittar på en bild i 6-11 miljoner pixlar på datorn? Man skalar väl ändå ner bilderna förutom när det skall göras utskrifter..?
 
Kim10D skrev:
nä det stämmer, 120mp ligger gränsen för vad ögat kan uppfatta, en dataskärm med upplösningen 120mp kan inte skiljas från verkligheten (av ögat).
He he – på hur stor skärm då? Ytan är väl en parameter som man inte kan bortse helt ifrån men snackar vi småbildssensorer så kan det säkert stämma.

Vart kommer denna uppgift ifrån? Det vore kul att läsa mer om hur de resonerar. Frågan är väl också vad optiken klarar.

Och att bara haka upp sig på pixlar är väl inte heller helt rätt. På samma sätt som att det inte är helt korrekt att bedöma en bils toppfart genom dess motorstyrka.
 
Om du fyller upp synfältet med 120mp såklart.

Det har stått på flera ställen bl.a illustrerad vetenskap..det har även nämnts i program på Discovery och på andra ställen.

Det stog visst i någon av de där nya svenska digitalkameratidningarna oxå.
 
Kim10D skrev:
nä det stämmer, 120mp ligger gränsen för vad ögat kan uppfatta, en dataskärm med upplösningen 120mp kan inte skiljas från verkligheten (av ögat).

ca 107 miljoner ljussensorer finns i varje öga, 7 miljoner av dessa kan registrera färg, de övriga kan bara registrera ljusets intensitet. Jag tycker det är lite överdrivet att jämföra detta med 120 äkta MP.

En 21-tums skärm med 8 Mpix skall enligt tester överglänsa tryckt material, säger dock inget om ögats "upplösning"
 
EdwardH skrev:

Digitalkameror kommer aldrig att bli bättre.
Jaså? Det är jag övertygad om. Jag tror inte utvecklingskurvan kommer att följa Moores lag ändock. Isåfall kan vi räkna med helt perfekt exponerade, kristallklara bilder tagna i totalt mörker med 1/15000s om ett par år. Törs nog sätta en slant på att det inte kommer att ske.
Seriöst inlägg förresten...
 
Senast ändrad:
De gjorde en test i USA (var annars) där de använde 64 Pentiumdatorer för att uppdatera en stor skärm på 120mp...ingen av fösökspersonerna uppfattade skärmen som något annat än ett vanligt fönster ut mot "verkligheten".

Tyvärr har jag ingen länk till sidan..men artikeln fanns i illustrerad vetenskap.
 
Senast ändrad:
Copy_Con skrev:
ca 107 miljoner ljussensorer finns i varje öga, 7 miljoner av dessa kan registrera färg, de övriga kan bara registrera ljusets intensitet. Jag tycker det är lite överdrivet att jämföra detta med 120 äkta MP.

I vilket fall som helst får du ju gångra det med 2..om du inte är enögd förstås ;-)

Copy_Con skrev:

En 21-tums skärm med 8 Mpix skall enligt tester överglänsa tryckt material, säger dock inget om ögats "upplösning"

Det tror jag helt säkert, ganska ordentligt oxå..men nu jämförde jag med att kunna skilja skärmen från verkligheten.
 
Kim10D skrev:
De gjorde en test i USA (var annars) där de använde 64 Pentiumdatorer för att uppdatera en stor skärm på 120mp...ingen av fösökspersonerna uppfattade skärmen som något annat än ett vanligt fönster ut mot "verkligheten".

Tyvärr har jag ingen länk till sidan..men artikeln fanns i illustrerad vetenskap.


Grym skärm ~9800*12250px. Hoppas att det var en flatscreen för den skulle blir rätt djup på skrivbordet.
 
Damocles skrev:
Det var någon här som hade gjort en karta över vilka fillmer som krävde vilken dpi på scannern för att kunna urskilja alla detaljer, för provia tror jag den siffran låg på typ 4900dpi, och det inkluderade nyquist gränsen...(funkar kort så att det behövs alltid minst två rader pixlar för att kunna urskilja en linje, så scannern måste alltid ha minst dubbla upplösningen mot det som ska scannas.

Men 4900dpi ger altså en bild på 4630x6945 = 32MP
Och det faktiska detaljfupplösningen i denna borde altså då vara 16MP.
...

pixelmängden är en funktion av upplösningen i kvadrat.

halva upplösningen blir då 2315x3472 = 8MP
 
Re: Re: Re: digital för 40.000:- !?

SunKi skrev:
Det går väl ändå inte att jämföra? Vem tittar på en bild i 6-11 miljoner pixlar på datorn? Man skalar väl ändå ner bilderna förutom när det skall göras utskrifter..?
Nej, jag har aldrig sagt att jag jämför bilderna på en skärm heller, en digital bild kan användas till mycket än att bara se på den i 640x480.
 
EdwardH skrev:
Vi kommer aldrig behöva mer än 640kb ram.

Vi kommer aldrig flyga till månen.

Det kommer finnas en marknad för max 5st datorer i hela världen.

Digitalkameror kommer aldrig att bli bättre.

...och strax innan halvledarna upptäcktes (det var en upptäckt, ingen konstruktion) hade elektronrörstekniken nästan nått fulländning, så man konstaterade att man snart skulle nå gränsen för datorernas utveckling.
 
xrvjorn skrev:
...och strax innan halvledarna upptäcktes (det var en upptäckt, ingen konstruktion) hade elektronrörstekniken nästan nått fulländning, så man konstaterade att man snart skulle nå gränsen för datorernas utveckling.
Och snart får vi den spinnande transistorn..
http://www.expressen.se/expressen/jsp/polopoly.jsp?d=10&a=64630

Och efter det får vi den flygande transistorn
Och efter det får vi den pratande transistorn
Och efter det får vi den osynliga transistorn
osv..
 
Jag tror inte utvecklingskurvan kommer att följa Moores lag ändock.
Moores lag är ingen lag utan var en i första hand ekonomisk obeservation och har faktiskt skvatt att göra med hastighet på cpu'er eller antal MP(varje fotosite är inte helt synonymt med antalet transistorer) på en sensor. Den ursprungliga formuleringen i lätt kondenserad form lyder väl ung så här....Antalet transitorer per chip som ger en minimal kostnad per transistor har dubblerats för varje år.

pixelmängden är en funktion av upplösningen i kvadrat.

halva upplösningen blir då 2315x3472 = 8MP
Halva bildupplösningen ja, men nu var det inte det som var fallet. Jag var nog lite otydlig. En bild med 32MP kan aldrig innehålla 32MP med detaljer. Men inte heller krävs det 4 pixlar för att ha en pixels detalj.

Kort sagt så bygger Nyquists samplimgsteorem på att detaljåtergivningen i en bild aldrig vara mer än hälften av sensorns upplösning. Den första implementation var väl dock baserad på en ren information och angav att det krävdes dubbelt så många samples mot signalen du försöker återge eller nåt i den stilen.

Har du en 1200dpi scanner kan du alldrig ha en högre detaljåtergivning än hälften av detta, oftast lite mindre. Men det har å andra sidan inte så mycket att göra med bildens upplösning i pixlar att göra.
 
xrvjorn skrev:
...och strax innan halvledarna upptäcktes (det var en upptäckt, ingen konstruktion) hade elektronrörstekniken nästan nått fulländning, så man konstaterade att man snart skulle nå gränsen för datorernas utveckling.
Precis, men det 'gick åt' snilleblixtar i Nobelpris-kaliber för att transistorn skulle se dagens ljus. Vem vet, om några år kanske fullsize-sensorer kan tillverkas med vanlig Xerox-kopiator-teknik.. :) Den som är smart kanske kan komma på nåt...
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar