Annons

Kameraindustrin är i en fullständig förändring.

Produkter
(logga in för att koppla)
Ska det fungera får man ju köra med kortare slutartid och då ser videon ut som skräp istället, alternativt ha tur att någon ruta råkar vara skarp.
Det kommer säkert mjukvara som kan generera skarpa stillbilder ur en serie rörliga bilder. Om det inte redan finns.
Något som redan finns är mjukvara som kan interpolera och skapa bilder mellan bilderna för att spela upp i högre frekvens.
 
Det finns i huvudsak två sätt att angripa överhettning:
1 kylning
2 komponenter som utvecklar mindre värme.

1:an är en ”Work around”.
2:an är framtiden.
Får byta teknik till fler parallella processorer, Dela upp sensorn i flera delar som kan läsas av parallellt, material som tål högre värme (svårare att arbeta med och finns inom militär industrin för högeffekt mikrovågskretsar) och sänka matningsspänningar. Kommer höja kostnaden. Kommer dock aldrig i från att överskottsvärme måste kylas av, ju högre klockfrekvens desto högre effektförbrukning hos kretsar..
 
Får byta teknik till fler parallella processorer, Dela upp sensorn i flera delar som kan läsas av parallellt, material som tål högre värme (svårare att arbeta med och finns inom militär industrin för högeffekt mikrovågskretsar) och sänka matningsspänningar. Kommer höja kostnaden. Kommer dock aldrig i från att överskottsvärme måste kylas av, ju högre klockfrekvens desto högre effektförbrukning hos kretsar..


Det gränsar till en fråga jag ställde om just Canons problem. Tony Northrup tror jag det var som lyfte DPRAW eller Dual Pixel RAW som ett datamängdsproblem. Skulle man inte kunna nöja sig med att processa och spara en enda uppsättning av det data man producerar när man filmar. Ingen har hittills svarat på den frågan. Vad tillför DPRAW för video? De flesta andra använder väl inte Dual Pixel.

.... Dual Pixel gör väl annars just det du säger d.v.s. delar upp sensorn i två. Det är säkert omistligt för Canons AF men måste man lagra data i två kopior som är nära identiska - om det nu är det man gör. Stämmer inte det så kanske någon kan meddela detta.
 
Det gränsar till en fråga jag ställde om just Canons problem. Tony Northrup tror jag det var som lyfte DPRAW eller Dual Pixel RAW som ett datamängdsproblem. Skulle man inte kunna nöja sig med att processa och spara en enda uppsättning av det data man producerar när man filmar. Ingen har hittills svarat på den frågan. Vad tillför DPRAW för video? De flesta andra använder väl inte Dual Pixel.
Tror du är något på spåren.
Det finns redan nu algoritmer för att hantera stora mängder data under kort tid och man kan optimera hårdvaran för detta. Olika lager som hanterar olika funktioner och kommunicerar via vertikala pipelines. Det är ett område som växer nu med AI forskningen.
Kameratillverkarna är tagna på sängen med det ökade prestanda kraven för högupplöst video och det kommer ta några år innan de anpassar sig. Tog ju även några år för Nikon att ta fram sina första spegellösa kameror trotts det var en känd teknik. Trots att Nikon har haft god tid för att ta fram sina kameror så missade de saker som dubbla kortplatser och vertikal grepp med fulla funktioner, vilka ryktas komma nu med Z6s och Z7s uppdateringarna.
 
Senast ändrad:
Det kommer säkert mjukvara som kan generera skarpa stillbilder ur en serie rörliga bilder. Om det inte redan finns.
Något som redan finns är mjukvara som kan interpolera och skapa bilder mellan bilderna för att spela upp i högre frekvens.

Det är väldigt enkelt i min kamera bara man vet hur man gör och säkert i många andras att plocka ut stillbilder ur film - s.k. "framegrabbing". Om bilderna blir skarpa beror väl på "slutartid" och om man själv eller AF lyckas fokusera på det som man vill ha skarpt och det innebär väl att autoläge inte är någon bra ide'. Menar du att den mjukvara du efterlyser skulle hitta de mest skarpa bilderna eller faktiskt slå ihop bilder som exv. beskriver en rörelse. Hur sker sånt? Är det optimalt om man vill ha utv en enda bild som slås ihop av fler?

Jag fick som vanligt läsa Gary Friedmans manual över A7 III för att fatta hur framgrabbing sker direkt i kameran. Man startar och stoppar filmen och trycker "kontrollhjulet" nedåt. Då öppnas en meny med videokntroller. I den finns ett antal knappar, varav en är till för framegrabbing. Efter bild valts i filmen trycker man igen på "kontrollhjulet" nedåt och då sparas bilden på minneskortet. Det är är verkligen inte särskilt intuitivt och jag hade nog aldrig fattat att denna funktion fanns om jag inte konsulterat min räddare i nöden Gary. Jag undrar faktiskt om inte fler än jag haft samma upplevelse.
 
Kameratillverkarna är tagna på sängen med det ökade prestanda kraven för högupplöst video och det kommer ta några år innan de anpassar sig. Tog ju även några år för Nikon att ta fram sina första spegellösa kameror trotts det var en känd teknik.
Nikons första spegelfria kamera kom 2011 (CX-kamerorna i 1-serien). Att det tog många år efter det innan Nikon presenterade sin första spegelfria småbildskamera (FX) berodde knappast på att Nikon inte hade tekniken. Jag tror snarare att var av marknadsskäl och en existerande investering i spegelreflexsystemet.
 
Det gränsar till en fråga jag ställde om just Canons problem. Tony Northrup tror jag det var som lyfte DPRAW eller Dual Pixel RAW som ett datamängdsproblem. Skulle man inte kunna nöja sig med att processa och spara en enda uppsättning av det data man producerar när man filmar. Ingen har hittills svarat på den frågan. Vad tillför DPRAW för video? De flesta andra använder väl inte Dual Pixel.

.... Dual Pixel gör väl annars just det du säger d.v.s. delar upp sensorn i två. Det är säkert omistligt för Canons AF men måste man lagra data i två kopior som är nära identiska - om det nu är det man gör. Stämmer inte det så kanske någon kan meddela detta.
Jag är ingen expert men jag hittade denna förklaring.
1. Ändra fokus i RAW efter bilden är tagen med några millimeter, bra vid porträtt om fokus hamnat på ögonbryn i stället för på ögat.
2. Ändra utseendet i RAW på områden framför och bakom motivet som är ur fokus för att förbättra Bokeh.
3. Minska flare och ghosting i RAW från ljuskällor.
Källa:
 
Tror du är något på spåren.
Det finns redan nu algoritmer för att hantera stora mängder data under kort tid och man kan optimera hårdvaran för detta. Olika lager som hanterar olika funktioner och kommunicerar via vertikala pipelines. Det är ett område som växer nu med AI forskningen.
Kameratillverkarna är tagna på sängen med det ökade prestanda kraven för högupplöst video och det kommer ta några år innan de anpassar sig. Tog ju även några år för Nikon att ta fram sina första spegellösa kameror trotts det var en känd teknik. Trots att Nikon har haft god tid för att ta fram sina kameror så missade de saker som dubbla kortplatser och vertikal grepp med fulla funktioner, vilka ryktas komma nu med Z6s och Z7s uppdateringarna.

Ska man göra hybridkameror som är bra på stillbild och halvbra på video så är det väl just sådana saker man kan behöva ha uppsikt över. Saker som är toppen för stillbild är möjligen inte alls särskilt begåvat för video alla gånger. Dual Pixel RAW kan vara omistligt för AF men ska man verkligen släpa med sig allt detta data in i processningen i kamerorna och i efterbehandlingen? Det går ju tydligen att finlira med exv. skärpan i efterbehandlingen med Canons RAW -filer åtminstone i stillbild med vissa verktyg men hur många gör det egentligen och är det verkligen praktiskt verkligen optimalt med samma tänk för video om de nu verkligen har det? Har för mig att FS:s Magnus skrev om denna möjlighet för stilbild för något år sedan.

Att Nikon missade dubbla kortplatser är obegripligt efter all kritik A7rII fick för ett antal år sedan när många Canon-fotografer började intressera sig för Sony som alternativ. Men även Canon bommade en del. Ingen stabilisering i husen och dålig batteritid, en sak de också kritiserade A7rII för. Halvdålig AF och ögonfokus som inte alls imponerade hade båda innan de fick nya FW. Nikons misstag var nog att bre på alldeles för mycket som de sedan inte kunde leva upp till och nu gjorde Canon precis så en gång till. Klart är nog att precis som du skriver att varenda kameratillverkare verkar ha underskattat värmeproblemen.
 
Nikons första spegelfria kamera kom 2011 (CX-kamerorna i 1-serien). Att det tog många år efter det innan Nikon presenterade sin första spegelfria småbildskamera (FX) berodde knappast på att Nikon inte hade tekniken. Jag tror snarare att var av marknadsskäl och en existerande investering i spegelreflexsystemet.

Men duger de erfarenheterna till att hantera exv. värmeproblemen i kameror med väldigt mycket större sensorer väldigt mycket större datamängder som fler pixlar, snabb högkvalitativ 4K och senare även 8K genererar? Det måste väl ändå vara problem i en helt annan liga än de Nikon hade med 1 även om jag håller ned dig om övrigt.
 
Jag är ingen expert men jag hittade denna förklaring.
1. Ändra fokus i RAW efter bilden är tagen med några millimeter, bra vid porträtt om fokus hamnat på ögonbryn i stället för på ögat.
2. Ändra utseendet i RAW på områden framför och bakom motivet som är ur fokus för att förbättra Bokeh.
3. Minska flare och ghosting i RAW från ljuskällor.
Källa:


En sak som jag undrar över är om inte denna dubbla datamängd i filerna är gårdagens lösning på ett problem som väl knappt ens Canon lär ha idag i sina spegellösa. I Canons DSLR:er däremot kanske det var till hjälp när det gällde att kompensera för en dålig fokusprecision som inga moderna spegellösa har idag. Så vem behöver Dual Pixel RAW idag? Har tekniken med dubbelt data i filerna helt enkelt spelat ut sin roll idag? Att den gått från att vara åtminstone en teoretisk tillgång för ett fåtal i efterbehandlingen till en alltför hög kostnad på marginalen när det gäller dataprocessning och värmeutveckling.

Canon kanske måste döda en gammal "darling" för att komma åt överhettningsproblemen. De kan väl åtminstone göra det valbart om man vill lagra DPRAW eller inte om det nu är en del av problemet. Det är väl enklare än att byta sensor i alla fall och betydligt bättre för elektroniken än att "göra en Sony A6300" och bara tillåta en högre driftstemperatur. Det kommer bli intressant att se vilka åtgärder man kommer vidta och hur lång tid det kommer ta innan de säger sig vara nöjda med resultatet och klara att släppa kamerorna på marknaden.
 
Senast ändrad:
Ska man göra hybridkameror som är bra på stillbild och halvbra på video så är det väl just sådana saker man kan behöva ha uppsikt över. Saker som är toppen för stillbild är möjligen inte alls särskilt begåvat för video alla gånger. Dual Pixel RAW kan vara omistligt för AF men ska man verkligen släpa med sig allt detta data in i processningen i kamerorna och i efterbehandlingen? Det går ju tydligen att finlira med exv. skärpan i efterbehandlingen med Canons RAW -filer åtminstone i stillbild med vissa verktyg men hur många gör det egentligen och är det verkligen praktiskt verkligen optimalt med samma tänk för video om de nu verkligen har det? Har för mig att FS:s Magnus skrev om denna möjlighet för stilbild för något år sedan.

Att Nikon missade dubbla kortplatser är obegripligt efter all kritik A7rII fick för ett antal år sedan när många Canon-fotografer började intressera sig för Sony som alternativ. Men även Canon bommade en del. Ingen stabilisering i husen och dålig batteritid, en sak de också kritiserade A7rII för. Halvdålig AF och ögonfokus som inte alls imponerade hade båda innan de fick nya FW. Nikons misstag var nog att bre på alldeles för mycket som de sedan inte kunde leva upp till och nu gjorde Canon precis så en gång till. Klart är nog att precis som du skriver att varenda kameratillverkare verkar ha underskattat värmeproblemen.
Beror på vad man vill ha ut från kameran. Snabbare datorer och bättre videoprogram kommer underlätta efterbehandling av videon. Processföringen i kameran ökar också med ökad datamängd. Ofta minskar man datamängden i flera steg.

Tror att trenden är att man skall matematisk kunna ställa skärpan där man vill efter bilden är tagen. Tror det medför ett behov av större datamängd från kameror. Ej insatt i hur det fungerar i detalj och får läsa på.

Tycker mig se en trend att vissa versioner av kamerorna görs speciellt för bra video prestanda så det kanske delas upp i kamera för bra video och acceptabel stillbild samt kamera för bra stillbild och acceptabel video. IBIS behövs för video, för stillbild kan det sitta i linser. IBIS medför en extra uppvärmning av sensorn och fungerar bäst på små sensorer.

Mellan formatkamera tillverkare som Fuji har börjat införa det i sina toppmodeller också för att kompensera för vibrationer från slutaren och för att kunna hantera video bättre. Jag är inte påläst på om det är tillräckligt bra för att kunna ta bort kompenseringen i linser.

Om jag har förstått trenderna så är det följande.
1. Proffs vill kunna fotografera med högkvalitativ video i sina stillbildskameror. Ljud funktionerna måste också förbättras.
2. Media fasar ut fotografer och låter journalister fotografera. 8k video medför man kan få bättre stillbilder från videon.
3. Man vill kunna ställa om skärpan i efterbehandlingen på grund av att man låter Journalister fotografera.
4. Man vill ha IBIS i husen samt möjlighet att ställa in högt ISO-tal.
5. Skall vara lätt att föra över videon via Wifi osv precis som en mobil telefon. GPS behövs för att synka flera kameror.
6. Skall vara enkelt att koppla ihop kameran med ett extern belysningssystem.
7. Kameran skall kompensera för svagheter i linserna.
8. Automatisk fokusering och automatisk exponering måste fungera utan misstag.
Har jag glömt något?
 
Senast ändrad:
Det är väldigt enkelt i min kamera bara man vet hur man gör och säkert i många andras att plocka ut stillbilder ur film - s.k. "framegrabbing". Om bilderna blir skarpa beror väl på "slutartid" och om man själv eller AF lyckas fokusera på det som man vill ha skarpt och det innebär väl att autoläge inte är någon bra ide'. Menar du att den mjukvara du efterlyser skulle hitta de mest skarpa bilderna eller faktiskt slå ihop bilder som exv. beskriver en rörelse. [...]

I rörlig film är det ofta lite längre slutartider man använder. Rörelseoskärpan bidrar till att skapa en mjukare rörelse.
Det jag tänker är att mjukvaran ska kunna analysera två (eller flera) närliggande bilder och ur detta skapa en stillbild utan rörelseoskärpa.
 
Man brukar rekommendera 2 gånger filmbilder/sekund. För 4k 24 alltså 1/48 del.
För snabba motiv kan man behöva öka till 60 bilder eller 120 bilder per sekund..
Detta till trots är det ju inget som ger skarpa bilder för snabba motiv.

Måste vara bättre att fota sådant på traditionellt sätt.
 
Men duger de erfarenheterna till att hantera exv. värmeproblemen i kameror med väldigt mycket större sensorer väldigt mycket större datamängder som fler pixlar, snabb högkvalitativ 4K och senare även 8K genererar? Det måste väl ändå vara problem i en helt annan liga än de Nikon hade med 1 även om jag håller ned dig om övrigt.
Jag tror nog att de flesta kameratillverkare kan räkna på energiåtgång och göra en uppskattning av värmeutvecklingen. Sen blandar sig förstås marknadsavdelningen i.

Nikon J5 hade 21 Mpixel. Det är inte mycket mindre än Nikon Z6 med 24 Mpixel.
 
Jag tror nog att de flesta kameratillverkare kan räkna på energiåtgång och göra en uppskattning av värmeutvecklingen. Sen blandar sig förstås marknadsavdelningen i.

Nikon J5 hade 21 Mpixel. Det är inte mycket mindre än Nikon Z6 med 24 Mpixel.

Ja det var denna imponerande bildmaskin, 20bps/ låst fokus 60bps, som konstigt nog fick 4K 15p, inte så lyckat, Dom hade nästan allt denna kamera serie, lite tunga inte så små kom det inte någon V1 med skapligt grepp också.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar