Fler avsnitt
Fotosidan Poddradio 142 - AI i fotovärlden (i samarbete med Svenska Fotografers Förbund)
Fotosidan Poddradio
Vad är Artificiell Intelligens egentligen och hur påverkar den oss som jobbar med bild? I detta avsnitt dyker vi ner i den fascinerande och omtvistade världen av AI och fotografi. Tillsammans med retuschören Eric Asp utforskar vi hur artificiell intelligens påverkar branschen, både vad gäller kreativa möjligheter och utmaningar.
Läs mer...
Fotosidan Poddradio #141 - Makromästaren John Hallmén
Fotosidan Poddradio
En natt i mitten av juli cyklar jag till Nackareservatet i Stockholm för att träffa makrofotografen John Hallmén. Under några timmar fotograferar vi och samtalar om allt från teknik och prylar till fotografiska metoder. Här kommer sommarens makrospecial som slow-podd, perfekt för hängmattan.
Läs mer...
4
Fotosidan Poddradio #138 - Juridiska frågor om fotografi (i samarbete med Svenska Fotografers Förbund)
Fotosidan Poddradio
Sliter du med snåriga avtal i din fotografiska verksamhet? Behöver du ett juridiskt bollplank i samband med en tvist eller har en fråga om lag och rätt kring fotografi och fotograferande? I detta avsnitt träffar jag Svenska Fotografers Förbunds egen jurist Astrid Nymansson.
Läs mer...
1
69 Kommentarer
Logga in för att kommentera
Sedan kan man fråga sig hur ofta vi egentligen i praktiken behöver den fördelen, och hur viktig den tekniska bildkvaliteten är för olika bilder, men det är en lite annan diskussion :-)
När jag nu testade på datan gick det förstås bra :)
Så, som ni säger, glöm ALLTID pixelmängden och fotografera som du alltid gjort. Sluta titta så djupt i "glaset" istället ;-)
Det påstås i podden att ljus rör sig i slumpmässiga banor, jag trodde att ljuset rör sig i en rät linje?
Vidare att man får "störningar under omvandling från analog till digital signal."
-Sker det verkligen sådan omvandling i en digital kamera? Var då i så fall?
Den analoga delen i kameran är fortfarande optiken. Omvandlingen sker när ljuset passerar optiken och till den digitala sensorn. se det som. Optik = Analog. CMOS-sensorer = Digital
Om analog-omvandling: Sensorn är faktiskt i sig själv analog (och till råga på allt färgblind). Den analoga signalen sensorn fångar in omvandlas till digital i A/D-omvandlare. Traditionellt har dessa suttit utanför själva sensorn, men senaste åren har vi också lösningar där A/D-omvandlingen sker integrerat i sensorn. En av flera fördelar med sådan omvandling är att den analoga signalen som till sin natur är mycket mer störningskänslig färdas kortare väg och påverkas mindre innan den digitaliseras. Plus att man då arbetar med många små parallella A/D-omvandlare, en teknik som verkar introducera mindre brus än få stora A/D-omvandlare.
Däremot förstår jag inte samme Martin A i kommentaren här ovan i "ibland kan till exempel någon del av ljuset som är på väg mot en sensor krocka med eller påverkas av någon annan strålning"; ett stycke ljus påverkas inte (i betydelsen styrs om eller ändrar våglängd) av att krocka med något annat stycke ljus, annat än möjligen i mycket extrema situationer som inte uppstår i fotografering.
Men jag kanske missförstår den passagen.
I sak håller jag med dig.
Bra Optik först och sedan ett hus med bra upplösning och fullformat sensor.
Har nu fixat optik och sparar nu till ett kamera hus. Ser ut att bli ett D810 om inte Nikon kommer ut med 50 Mpix kamera innan jag har fåt ihop pengarna..
Det är svårare att hitta ett bra spegelöst kamera som klarar trippelexponering som komplement till Systemkameran.
Någonstans har man glömt bort fotografen som kreatör och bildskapare
Men, eller kanske just därför, vill jag komma med en synpunkt. På slutet när det pratas om skakningsoskärpa dras en jämförelse med den jättehöga pixeltätheten hos enkla kompaktkameror som vi ju handhåller.
Men om man antar att skakningsoskärpan kommer i första hand (vid normal fotografering) från vinkelförändringar i hur man håller kameran så är det inte pixlar per ytenhet på sensorn som är det relevanta, utan pixlar per bildvinkelenhet. Och då hamnar kompaktkamerorna på ungefär samma täthet som systemkameror, vilket också förklarar varför man verkar kunna använda ungefär samma tumregler. Och det förklarar varför det inte verkar vara dubbelt så svårt att handhålla en 24 Mpix APS-kamera med 35 mm objektiv än en 24 Mpix fullformatare med 50 mm objektiv – vilket det skulle vara, om det var pixeltätheten per sensoryta som var det styrande.
Vi brottas med en blandning av vinkelförändringar men också förskjutning i x-, y- och z-led. Det är hur som helst ett vanligt argument från Olympus och (numera) Sony när de skall berätta hur bra det är med 5-axlig stabilisering :-)
Tänk på att de mer traditionella stabiliseringssystemen (i synnerhet de tidiga) nästan uteslutande ägnar sig åt att kompensera för förskjutningsskakningar, så jag tror inte riktigt att de utgör en försumbar del av det hela.
Och, om jag får vara lite petig i retur ... :-)
Visst har en 24 mpix aps-c dubbelt så många pixlar per ytenhet som en 24 Mpix småbildssensor - men den har bara 40% fler pixlar per millimeter i någon given riktning (som x- eller y-led). Skall det, sett till förskjutningsskakningar, bli dubbelt så svårt att handhålla aps-c-kameran så behöver den klämma in dubbla antalet pixlar på halva ytan för att ge en dubbel känslighet för rörelser i någon given riktning.
Annorlunda uttryckt: En 48 megapixels aps-c borde vara dubbelt så känslig för förskjutningsskakningar som en 24 Mpix småbildssensor. Och du måste upp till 96 Mpix i en småbildssensor för att den skall bli dubbelt så känslig för förskjutningsskakningar som en 24 Mpix småbildssensor. (Här talar jag alltså enbart om förskjutningsskakningar.)
Det är mycket riktigt ett rejält "om" att bara vinkelförändringen skulle vara av betydelse. Jag resonerade att om vi antar att förskjutningsamplituden är storleksordningen 1 mm (gripet ur luften) och objektet man fotograferar är flera meter stort och bildvinkeln är någorlunda normal så kommer förskjutningsoskärpan att ha jämförelsevis liten effekt på resultatet. Gängse tumregel med 1/brännvidden (alt 1/(brännvidden*x)) indikerar också att vinkelskaket normalt dominerar över förskjutningsskakning.
Däremot, om man fotar makro och objektet bara är några centimeter stort, då blir förstås förskjutningsoskärpan påtaglig.
Jag är iofs öppen för att jag kan ha tänkt fel här. Det du skriver om traditionella stabiliseringssystem är onekligen bestickande.
Angående upplösning i en eller två dimensioner sedan - jag funderade ett ögonblick innan jag skrev föregående kommentar på vilket mått jag borde ta, men eftersom jag uppfattade att ni körde areamåttet i podden (alltså pixlar per yta) valde jag samma.
Leif:
Myt och myt. Det beror på vad slutmålet är. Om ens mål är att maximalt nyttja all ny upplösningsförmåga så är det ingen myt.
Dels är effekten bara intressant om man verkligen vill utnyttja den ökade potentialen den ökade upplösningen kan ge (vilket man ju många vardagsbilder faktiskt inte bryr sig om).
Dels överdriver helt enkelt många hur stort problemet är. Jag skulle nog säga att man måste upp dubbla linjära upplösningen (alltså fyra gånger fler pixlar på samma yta) för att skillnaden skall synas speciellt tydligt. Plus att problemet ofta överskuggas av andra problem - som att motivet rör sig (de är ju ofta det större problemet) eller att detaljåtergivningen hämmas av brus (när vi skruvar upp iso).
Kort sagt, problemet finns men är inte på långa vägar så stort som många gärna vill göra det till.
Den handhållna fotograferingen efter tumregeln 1/brännvidden kan ju absolut inte bli sämre i takt med att pixelmängden ökar så handhållningsmyten är ju precis lika mycket nys som objektivmyten.
Sen att snabbare tider, stativ samt skarpare och ljusstarkare objektiv alltid har varit, och fortfarande är, en fördel tillhör ju bara den vardagliga kunskapen, oavsett pixelmängd eller filmtyp.
Men med högre upplösning går det verkligen att upptäcka skakningsoskärpa som man inte hade upptäckt med en lägre upplösning. Vilket innebär att det är en faktor som tar bort en liten del av den fördel som den högre upplösningen potentiellt kan ge. Ju högre upplösning vi har, ju mer märks detta.
Någonstans når vi en punkt där det på grund av flera faktorer - som skakningsoskärpa, optiska brister, fokusfel med mera - helt enkelt inte längre lönar sig speciellt mycket att höja sensorupplösningen mer. Varje gång sensorupplösningarna höjs tror många att vi passerat den här gränsen, medan jag hävdar att vi i praktiken har långt kvar dit.
Vad Göran tog upp i podden och vad Dan och jag filosoferat kring är att tumregeln 1/brännvidden inte längre funkar lika bra om man vill få ut så mycket som möjligt av sin mer högupplösta sensor. Inte att det skulle bli _sämre_ på grund av det. Frågan är snarare hur stor del av fördelen som äts upp av detta.
Skämt åsido. Vi är nog aningen överens :-)
Så det vill till att ha optik och ställa skärpan exakt om man skall ha nytta av den höga upplösningen, sitter man framför skärm och hänförs av detaljer man kan gräva fram i sina bilder kan det givetvis vara intressant. Men som de flesta av oss tittar på våra bilder ställer jag mig ytterst tveksam till att vi kommer att se någon skillnad ens om vi går ned ganska mycket i upplösning. Sedan kan det ju finnas en massa andra anledningar till att man vill ha denna kamera, men jag tror att en av de främsta faktiskt handlar om lyckan att ha "det värsta som går att köpa".
Jag sitter själv i samma träsk, fast där handlar det om optik, jag har några rent ut sagt vansinnigt dyra Leicaglugga och älskar dem. Men skulle jag se någon skillnad på väsentligt billigare glas?
Normalbehandlad film gav nätt och jämnt den kvalitén.
Sedan kommer förstås önskemålen om beskärning och att betrakta stora bilder nära. Kraven på megapixlar ökar. Ingen mening att klaga. Tacka och ta emot.
Den stora gåvan tycker jag är höga ISO. Vi som, förgäves, pressat film måste bara älska möjligheten att fortsätta fotografera när solen försvunnit.
Befintligt ljus är numera befintligt mörker.
Älska pixlarna, men ännu mer höga ISO!
Ursäkta min tröghet i skallen.
Skalar vi ner till 12 megapixel kan vi behålla nästan samma verkliga upplösning i bilden (detaljåtergivning). Vi behåller innehållet men ökar effektiviteten.
Det finns ingen större anledning att sitta och skala ner sina bilder, men det är så här komprimeringen i vissa filformat jobbar, grovt förenklat.
Det gör att du oftast kan skala ned sådana bilder till sisådär halva pixelantalet (skriva på varje rad i blocket) utan att egentligen tappa speciellt mycket information, det enda som händer är att du lagrar (i stort sett) samma mängd information utspridd över en mindre yta.
Att skala ned så är så som Magnus pekar på ungefär motsatsen till att skala upp en bild där du ju rent informationsmässigt bara sprider ut data över en större yta.
(Har 3 st CP 5400:or) Silkeslena bilder, underliga färger ibland, rakbladsskärpa ibland. I praktiken bör man inte gå över 50 ASA ; )) alltså
stativ och stöd och motivet måste vara någorlunda stilla. Ibland så ramlar allting rätt tex med runstenar som motiv..50 mPix just nu..imorgon 200 mPix ..gränsen uppåt begränsas av hur mycket det går i praktiken att få in de ljuskänsliga elementen på den begränsade ytan som vi har idag...Idag en fysisk sensorsplatta imorgon en virtuell programuppbyggd sensor.. vem vet...allting utvecklas och så skall det vara..
Och den segmenteringen är ju ganska begriplig. Även om det förstås finns de som vill ha både hög upplösning och hög hastighet (t.ex. en del fågelfotografer) så är det nog vanligare att man kombinerar riktigt hög upplösning med eftertänksamt fotograferande (där man får mest utbyte av upplösningen) medan de som bryr sig mycket om snabbhet nog ofta bryr sig lite mindre om upplösningen.
Den per automatik misstänksamma inställningen har troligen mest med skräcken för att det ska försvinna pengar från bankkontot.
Nikon kommer med 100 % säkerhet med ett matchande eller ännu bättre hus i sinom tid.
Jag misstänker att mycket av misstänksamheten mot fler pixlar uppstår ur bildtittande i 100% och misstolkningar av det man ser där.
Nu ger fler pixlar också andra fördelar än ökad detaljrikedom, som ökat dynamiskt omfång. Fler pixlar handlar alltså inte bara om högre upplösning.
Sedan är det med diffraktion ungefär som med kvalitet med optiken eller skakningsoskärpa: En mer högupplöst sensor är mer avslöjande än en sensor med lägre upplösning, men bilden blir aldrig sämre - som allra sämsta utfall får man ingen märkbar kvalitetsökning av fler pixlar.
Ofta ser man uttrycket att den och den sensorn är "diffraktionsbegränsad" vid en viss bländare. Det uttrycket är delvis missvisande, det handlar inte om en hård "begränsning" utan om en gråzon där diffraktionens effekter gradvis märks mer och mer.
Kort sagt, diffraktion är inte en så stor stötesten för ökad sensorupplösning som många vill göra de till. Kompaktkamerorna är ju ett bra exempel, de är ofta helt klart "diffraktionsbegränsade" men det innebär ju inte att kompakter med högre sensorupplösning ger sämre bilder, bara att man inte får ut hela den potentiella fördelen.