ANNONS
Annons

Framtidens kameror

Produkter
(logga in för att koppla)

Aldalfo

Aktiv medlem
Hur tror ni det kommer vara att fotografera om tio år? Vad har hänt med kameran?

Jag har en tanke om att bländare och slutartider inte kommer att vara så viktiga i själva fotograferingsögonblicket.
Bilden kommer att innehålla sådana mängder av information, även om alternativa bländare och slutartider. Så i efterhand kan man sitta och laborera med exponering, skärpedjup och rörelseoskärpa, välja och vraka, och se vad som passar bäst. Vitbalans mm ställs givetvis också in i efterhand. Gaffling och alternativa exponeringar kommer vara mindre viktigt.

Det kanske kommer att förta mycket av det vi idag finner som tjusningen med fotografering.
 
Hur tror ni det kommer vara att fotografera om tio år? Vad har hänt med kameran?

Jag har en tanke om att bländare och slutartider inte kommer att vara så viktiga i själva fotograferingsögonblicket.
Bilden kommer att innehålla sådana mängder av information, även om alternativa bländare och slutartider. Så i efterhand kan man sitta och laborera med exponering, skärpedjup och rörelseoskärpa, välja och vraka, och se vad som passar bäst. Vitbalans mm ställs givetvis också in i efterhand. Gaffling och alternativa exponeringar kommer vara mindre viktigt.

Det kanske kommer att förta mycket av det vi idag finner som tjusningen med fotografering.

Det kräver att kameran alltid gafflar. Om det är din drömvärld så tror jag att du kan leva i den redan idag. Så länge du alltid tar en bild med så stort skärpedjup som möjligt och så kort slutartid som möjligt så kan du alltid lägga på oskärpa för kort skärpedjup och rörelse efteråt i GIMP eller PS.

Jag tror att mycket förbättringar kommer ske inom färgdjupet och givetvis antal pixlar, video och ISO. Vi kommer nog också få se fler och fler funktioner från kompakterna hoppa över till SLR. Ansiktsigenkänning, smileshutter etc.

Multiexponeringsvibrationsdämpning kommer nog också komma, där kameran ser till att flytta tillbaka det som rört sig till "rätt" plats innan bilder läggs ihop.

/Karl
 
Det kräver att kameran alltid gafflar. Om det är din drömvärld så tror jag att du kan leva i den redan idag. Så länge du alltid tar en bild med så stort skärpedjup som möjligt och så kort slutartid som möjligt så kan du alltid lägga på oskärpa för kort skärpedjup och rörelse efteråt i GIMP eller PS.

Jag tror att mycket förbättringar kommer ske inom färgdjupet och givetvis antal pixlar, video och ISO. Vi kommer nog också få se fler och fler funktioner från kompakterna hoppa över till SLR. Ansiktsigenkänning, smileshutter etc.

Multiexponeringsvibrationsdämpning kommer nog också komma, där kameran ser till att flytta tillbaka det som rört sig till "rätt" plats innan bilder läggs ihop.

/Karl

Det stora problemet blir väl att fånga stora dynamiska omfång. Fotografera mitt på dagen och få med alla detaljer i skuggor och alla detaljer på den klara himmeln för att i efterhand välja vad man vill visa. Jag tror att vi kommer att komma till en punkt där glaset som fysiskt material kommer att sätta nästa gräns. Så vad kommer man då använda för material i våra objektiv?
 
Det stora problemet blir väl att fånga stora dynamiska omfång. Fotografera mitt på dagen och få med alla detaljer i skuggor och alla detaljer på den klara himmeln för att i efterhand välja vad man vill visa. Jag tror att vi kommer att komma till en punkt där glaset som fysiskt material kommer att sätta nästa gräns. Så vad kommer man då använda för material i våra objektiv?

Jag har svårt att se att det skulle vara glaset som är problemet, glaset klarar väl redan nu allt från mörka till ljusa förhållanden. Skulle det göra någon skillnad att allt blev fångat i en exponering?
Jag är ganska övertygad om att bildskärmarna också kommer att göra enorma framsteg i färgåtergivningen så att dom kommer att klara av att visa 16-bitars färgdjup.

/Karl
 
Jag har svårt att se att det skulle vara glaset som är problemet, glaset klarar väl redan nu allt från mörka till ljusa förhållanden. Skulle det göra någon skillnad att allt blev fångat i en exponering?
Jag är ganska övertygad om att bildskärmarna också kommer att göra enorma framsteg i färgåtergivningen så att dom kommer att klara av att visa 16-bitars färgdjup.

/Karl

Ah förlåt. Det skulle vara 2 separata saker.
1, det dynamiska omfånget, och
2. utveckling mot den punkt där glasets fysiska begränsningar sätter stop. och för att inte tala om ljusets egenskaper.

Jag vill se ett objektiv med f0,5 till f200, i en kamera som fångar hela omfånget i en och samma bild
 
Med min D700 har jag iaf börjat kunna köra med Auto-ISO och till viss del så slipper jag tänka på vilken iso kameran väljer. I framtiden så lär det bli mer o mer så för alla, o sen till slut så kan man i alla situationer välja exakt vilket skärpedjup och rörelseoskärpa man vill ha vid fototillfället.

Men rörelseoskärpa i efterhand skulle ju ändå kunna gå ganska lätt att fixa om kameran istället för att läsa av exponeringen en gång, så läser den av den lika många gånger som hundradelarna i exponeringen är, och sen får man välja hur många av dom exponeringarna som ska sättas ihop till en. O sen för att få rätt exponeringen om man väljer väldigt få av dom "exponeringarna" (man får ju mörkare bilder med kortare exponeringstider) så får man exponeringskompensera med hjälp av den fantastiska brusprestandan som kamerorna kanske har då.

Fast att kunna välja skärpedjup i efterhand lär dock vara lite svårare. För att kunna välja skärpedjup krävs typ att kameran vid fototillfälle även tar ett såkallat "z-foto" eller "djup-foto" (snor lite 3d-termer) och sen att man har ett vettigt program där som gör allt relativt fysiskt korrekt. Fast det kommer egentligen inte att gå till 100% eftersom man vid kortare skärpedjup faktiskt ser "igenom" saker som är i oskärpa, så fotar man med oändligt skärpedjup så skulle inte sen programmet i datorn inte veta vad som finns bakom saker som ska vara i oskärpa.

(Nån som hänger med vad jag snackar om? :p )
 
Jag tror största utvecklingen kommer på elektroniksidan, på processorn och sensorn. På 10 år borde prestandan på processorn minst tiodubblas (dubbling var 2-3. år) och bli mindre, och billigare. Vilket kommer att möjliggöra att flera processorer, olika processorer tar hand om olika delar av bilden.
Vilket borde öka den dynamiska omfånget radikalt, med 5-6 EV eller mer, i närheten av vår egen ögon.

Dessutom tror jag att spegelreflexen tappar marknad, de spegelfria vinner terräng, när sökarnas kvalité och upplösning är lika bra som spegelns.
 
Spegeln kommer att försvinna från systemkameran, likaväl den mekaniska slutare. Allt mekanik kommer att vara dyrt att tillverka och mycket av det kommer att ersättas med elektroniska funktioner. Mycket av efterbehandlingen kommer att finnas direkt i kameran.
 
-Jag hoppas på mer systemuppbyggda kameror. Dvs. att man kan byta t.ex sensor efter förhållande.
Stora filer och låg ISO ena gången. Hög ISO och hög bildhastighet andra gången. Rörliga bilder en 3:e gång etc...Optimalt i förlängningen är en sensor som i sig är omställningsbar med programvara.

-Skärpedjup är inte det egentligen en begränsning i optiken som vi lärt oss uppskatta för att frilägga/framhäva det vi vill i en bild?
Det mänskliga seendet har väl ingen motsvarighet?

Större dynamik närmare det det mänskliga seendet, eller snarare perceptionen kommer säkert.
 
-Skärpedjup är inte det egentligen en begränsning i optiken som vi lärt oss uppskatta för att frilägga/framhäva det vi vill i en bild?
Det mänskliga seendet har väl ingen motsvarighet?

Jodå, annars skulle det inte vara ett problem för folk som är närsynta eller översynta.

Fokusera på något så nära som möjligt och försök att titta på hur allting runtomkring det du fokuserar på ser ut så kommer du se en slags bokeh. :p

Dessutom skulle fokusfel så som närsynthet och översynthet inte existera med oändligt skärpedjup...
 
Jag har faktiskt funderat på varför systemkameror har slutare? Man borde väl lika bra kunna ha kontinuerlig exponering av sensorn och sen elektroniskt välja ut när sensorn är lagom exponerad.
Optiken tror jag är svårt att modernisera mer än man ännu bättre kan tänja på fysikens lagar. Sen är kameror inbyggda som passiva system alá mobilens kamera och kamerors tillgänglighet är lika självklart som en kopieringsmaskin eller just en telefon med internet.

Om tio är kanske jag skulle kunna spekulera i att själva fotograferandet tappat i betydelse utan man instället samplar in hur omgivningen ser ut och skapar en elektronisk modell av det man fotat av. Sen kan man virtuellt beräkna fram hur fotot skall se ut. Man behöver inte ens befinna sig på platsen utan allt är redan avbildat och allmänt tillgängligt. Vem som helst kan ladda ner den data man behöver för att själv beräkna fram en bild. Det man vill fotografera behöver inte ens finnas på riktigt utan kan också vara tillverkat viruellt. Ungefär som bilderna i ikeakatalogen föreställer möbler som inte börjat tillverkas ännu, eller hustillverkare som kan visa katalogbilder på interiörer innan man bestämt hur huset skall se ut.
 
Jag har faktiskt funderat på varför systemkameror har slutare? Man borde väl lika bra kunna ha kontinuerlig exponering av sensorn och sen elektroniskt välja ut när sensorn är lagom exponerad.
Optiken tror jag är svårt att modernisera mer än man ännu bättre kan tänja på fysikens lagar. Sen är kameror inbyggda som passiva system alá mobilens kamera och kamerors tillgänglighet är lika självklart som en kopieringsmaskin eller just en telefon med internet.

Om tio är kanske jag skulle kunna spekulera i att själva fotograferandet tappat i betydelse utan man instället samplar in hur omgivningen ser ut och skapar en elektronisk modell av det man fotat av. Sen kan man virtuellt beräkna fram hur fotot skall se ut. Man behöver inte ens befinna sig på platsen utan allt är redan avbildat och allmänt tillgängligt. Vem som helst kan ladda ner den data man behöver för att själv beräkna fram en bild. Det man vill fotografera behöver inte ens finnas på riktigt utan kan också vara tillverkat viruellt. Ungefär som bilderna i ikeakatalogen föreställer möbler som inte börjat tillverkas ännu, eller hustillverkare som kan visa katalogbilder på interiörer innan man bestämt hur huset skall se ut.

Enkla kameror (videokameror, kameramobiler) har redan elektronisk slutare. Det låter som sannolikt, att med ökad snabbhet, exakthet, kommer den i finare kameror. Ja, optiken blir som den är, men med bättre sensorer får man bättre bild av mindre optik, tror jag. Mindre optik har ju större skärpedjup, men det borde man fixa till med mjukvaran.
 
Enkla kameror (videokameror, kameramobiler) har redan elektronisk slutare. Det låter som sannolikt, att med ökad snabbhet, exakthet, kommer den i finare kameror. Ja, optiken blir som den är, men med bättre sensorer får man bättre bild av mindre optik, tror jag. Mindre optik har ju större skärpedjup, men det borde man fixa till med mjukvaran.

Det är inte den lilla optiken som ger kort skärpedjup, det är den lilla sensorn som gör det.
Förmodligen kommer dock dom små sensorerna i framtiden dock vara tillräckligt bra för dom aldra flesta (det verkar dom ju redan nu vara).

/Karl
 
Optiken tror jag är svårt att modernisera mer än man ännu bättre kan tänja på fysikens lagar.
Det jag tror kommer ske i framtiden är att optiken förenklas och istället för att korrigera diverse optiska problem direkt i optiken så kommer det fixas med en processor i kameran. Dessa processorer kommer också att bli mycket mer effektiva med tiden.

Det har redan börjat ske i tex spegellösa kameror för att få ner storleken på optiken, men jag tror det kommer ske i ännu högre grad i framtiden. För utan riktigt små objektiv tycker jag inte spegellösa systemkameror lockar så mycket. Måste man ändå ha kameran i en väska så blir det ingen större skillnad mot en DSLR.
 
Om tio år kommer kamerorna i huvudsak se exakt ut som idag. I princip har inget alls hänt de senaste 20 åren vad gäller ex. EOS hus. Digitala EOS har funnits 10 år nu. Fler pixlar och snabbare kameror plus en del andra förbättringar är vad som hänt.
Främst tror jag sensorernas dynamik kommer att förbättras.
Det kommer en uppsjö av smidiga spegellösa systemkameror.
Spegeln kommer helt att ersättas om ca. 200 år, förutsatt att utvecklingen fortgår i oförminskad takt.
 
korrigera diverse optiska problem direkt i optiken så kommer det fixas med en processor i kameran.
Jag är knappast nån proffsfotograf och inte kameratillverkare men jag kommer ihåg skolans fysikutbildning. Det är en grej jag inte fattar. Hur skall denna korrigering gå till?

Vad jag vet om optik är att olika frekvenser (färger) har olika brytningsindex när det passerar en yta och att en lins oftast är sfäriskt eller åtminstone dubbelkrökt yta på nått vis så är brytningen olika beroende på var ljuset träffar linsen. Detta fysikaliska faktum försöker man genom nogrannhet kompensera genom att vända och räkna på optiken så slutsumman hamnar på + - noll. Om färgerna träffar sensorn helt olika, hur räknar tillbaka detta? Eller finns det algoritmer som tex kan beräkna en suddig bild till skarp?

Om man förenklar optiken vilket ju ifs låter smart, tvingas man till ganska små linser. Det jag kan om optik att det som bestämmer max ljuskänslighet är frontlinsens diameter i förhållande till projektinsytan. Kanske man kan göra sensorn löjligt ljuskänslig?

Fast, nu fick jag en ide. Varför är sensorn helt plan? Skulle man inte kunna göra kamerahuset i helt sfärisk som en boll och sensorn likaså kan följa kamerahusets form precis som ett öga.
 
Fast, nu fick jag en ide. Varför är sensorn helt plan? Skulle man inte kunna göra kamerahuset i helt sfärisk som en boll och sensorn likaså kan följa kamerahusets form precis som ett öga.

Om du läser på hur en kiselskiva (CMOS sensor) tillverkas, då inser du att det måste vara platt. I alla fal de närmaste 50-100 åren.
Man ritar med lasern på en hand-stor skiva många kretsar, många kretsar, sedan skär de i stycke.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar