ANNONS
Annons

Varför ska man INTE ha 4K?

Produkter
(logga in för att koppla)
Ett stort problem här är att materialet kan vara 24p men signalen från uppspelaren till skärmen 60p. Då måste skärmen kompensera och du får ryckiga panoreringar. Vissa kombinationer är värre än andra.
Så tipset är att, om möjligt, ställa in utrustningen så att skärmens uppdateringsfrekvens matchar bildmaterialet. Alla dessa så kallade bildförbättringsegenskaper som tillverkarna envisas med att marknadsföra förvränger bilden på det ena eller andra sättet så det första jag gör när jag köper en ny tv/skärm är att slå av allt sådant.

Ja det där gäller ju inte bara video utan även stillbild. Om man inte kollar vilken preview size man har i RAW-konverteraren så får man ju heller inte all möjlig detalj i exv. Capture One. Där stod det ju inte 3840 av sig själv heller.

Det som jag tycker är verkligt bra nu det är att min gamla "viewer" Photosnap Viewer som alltid givit klart bättre previews än både Lightroom och Windows bildläsare nu ger exakt samma kvalitet i detalj och färger som Capture One Pro 10 efter att jag justerade preview-storlek där. Så har jag aldrig lyckats få till det tidigare.
 
Men är inte tappet av kvalitet mer beroende av andra faktorer än sensoroptimering? Jag tycker en del 4K video inte ger ett dugg och en del av de dåliga exempel man kan se undrar jag om det inte mer handlar om dålig inspelningsteknik, överföringsteknik eller möjligen för dåliga objektiv.

Det finns säkert de som inte är nöjda med Sonys sensor i A7r II också men den bildkvaliteten bör väl ändå räcka och bli över och för de allra flesta så är det nog ordentlig overkill i alla avseenden, så om nu sensorernas optimering för video skulle vara ett sänke för stillbilderna så undrar jag om det verkligen kan vara annat än ett rent akademiskt problem i så fall. Hittills har jag aldrig stött på något empiriskt material om något sådant. Går det verkligen att se i så fall?

Ställer 4K till flera bekymmer.


StenÅke, olika bra 4K stämmer nog bra, precis som olika bra Full HD, sedan om avancerad 4K påverkar stillbild. Nu fins det mera när jag läste DPR-test av A6500, där har tydligen 4K ( UHD ) klart försämrat den vanliga Full HD mycket softade bilder skriver dom, A6000 har klart bättre Full HD, lika så har RX100-serien bättre FH ( mindre sensor, snabbare utläsning kanske är svaret ). Nästa konstighet, snabb AF, förbättrad buffert, responsiv på flera vis, Men sedan räckte inte kraften till Touch skärmen, den laggar och är långsam, och skärmen dimmar ner vid 4K för att utveckla mindre värme, så den blir då inte bra att titta i. 4K ser ut att ställa till bekymmer på flera plan, och då kommer det från så kallade erkänt duktiga på filmfunktioner, A6000 där kan man förlåta en del som den saknade, relativt billig kamera. A6500 skall vara det bästa i serien och kämpa mot legendariska C/N och nya Fuji som fotoeliten köper.
 
IMAC's 27 retina 5K har enl tester nästan dubbelt så stor utläsning mot en 55 tums tv 4K (enl Ljud &Bild). Bilden är med andra ord helt fantastisk, så varför fastna vid 4K när 5K redan finns?
 
IMAC's 27 retina 5K har enl tester nästan dubbelt så stor utläsning mot en 55 tums tv 4K (enl Ljud &Bild). Bilden är med andra ord helt fantastisk, så varför fastna vid 4K när 5K redan finns?

Vad är utläsning (för jag antar att du inte snackar om inbyggd kamera och dess sensor)?

Vad är du ute efter?

Att titta på TV i 4k/5k eller att jobba med foto/video-redigering i 4k/5k?

Sorry. Var inte alls med på ditt inlägg ovan (men kanske är lite trög då jag är både jetlaggad och förkyld)...
 
Är lite rörigt med 4K ser det ut som, vid 4K tester med A6500 så säger flera testare att det bli bäst vid 25p mera detaljer syns, andra på dessa sidor vill se 60p med 4K, för något år sedan tyckte flera att 24p var bra att kunna välja för det är bio-film standard, vad är rätt och fel. behöver det jobbas fram bättre testscheman i detta virrvarr av alla möjliga inställningar, 10 bit, 100 mbps, 50fps, ser ut som en djungel, enklast med FH och MP4 bara att köra.
 
Är lite rörigt med 4K ser det ut som, vid 4K tester med A6500 så säger flera testare att det bli bäst vid 25p mera detaljer syns, andra på dessa sidor vill se 60p med 4K, för något år sedan tyckte flera att 24p var bra att kunna välja för det är bio-film standard, vad är rätt och fel. behöver det jobbas fram bättre testscheman i detta virrvarr av alla möjliga inställningar, 10 bit, 100 mbps, 50fps, ser ut som en djungel, enklast med FH och MP4 bara att köra.

Större dynamiskt omfång som ju 4K ger kan ju säkert uppfattas som mer kontrastlöst också. Den debatten har vi ju haft i den s.k. DR-debatten tidigare när det gällt stillbilder. Det är ju tydligen så att en vanlig bild "som de flesta vill ha den" har ju ett DR kring 8-9, vilket ju innebär att de 13-14 steg vi har möjlighet med i alla fall med Sonys sensorer av olika skäl försvinner på vägen - helt enkelt för att vi vill ha det så. Video kanske inte alltid efterbehandlas på samma sätt som stillbilder.

Sedan är det också så med A6300 och A6500 att det finns möjlighet att ändra s.k. Picture Profiles och ändra en del andra inställningar relaterade till filmning. Ofta framgår det ju inte vilka villkor man haft vid testerna så visst behövs någon form av testkonsolidering.
 
Det får inte bli för krångligt med allting eller, skojigt med DPR som kämpar med autofokusen och inställningar med A6500, supervana testare, hur skall det gå när vanligt folk köper en sådan kamera, 4K skall skalas ner till Full HD för att bli som bäst, om man skall köra med det, kurser som för en Dataingenjörer och autofokusskolor måste snart behövas.

Kan inte Sony plocka tillbaks idén med färdiga små kort att stoppa i kameran ( hade sådana kort till en modell ) om man inte vill utöka med direktknappar, vi måste få användarvänliga kameror.
 
Det får inte bli för krångligt med allting eller, skojigt med DPR som kämpar med autofokusen och inställningar med A6500, supervana testare, hur skall det gå när vanligt folk köper en sådan kamera, 4K skall skalas ner till Full HD för att bli som bäst, om man skall köra med det, kurser som för en Dataingenjörer och autofokusskolor måste snart behövas.

Kan inte Sony plocka tillbaks idén med färdiga små kort att stoppa i kameran ( hade sådana kort till en modell ) om man inte vill utöka med direktknappar, vi måste få användarvänliga kameror.

Allting blir enklare om man inte läser för mycket i fotoforum... lol
 
Det beror väl mer på vilken gamma man har lagt på än hur många pixlar bilden består av?

Jag har väl inte talat om pixlarna i detta fall. 4K handlar inte bara om fler pixlar utan även om större DR och större DR kan upplevas kontrastlöst eller hur. Min kommentar gäller också testning av filmning med systemkameror. Jag undrar verkligen om de ens gått vidare från autoläget. Det var ju snack om kontrasten här och den kan man ju faktiskt öka manuellt. Det jag bemötte var Bengts uttalande och refererande av vad han läst och jag bara undrade vad det var för inte och vad den i grunden är baserad på eftersom jag inte tycker det räcker med att kommentera i så svepande ordalag något så jäkla komplext som hur videofunktionerna funkar i Sonys nya kamerahus.

Gamma är en sak man kan ändra och det finns en väldig massa val att göra där i en Sony-kamera numera kan jag meddela, men det är ju bara en av parametrarna. Man kan ju även justera svärta och färgmättnaden för att exv. justera den mjuka ton lite som exv. S-log verkar ge och som kommenterats en hel del på nätet.

Även när man exv. testar JPEG:s direkt ur kamerorna för stillbild och RAW-konverterares defaultinställningar så har ju folk synpunkter och jag med. Min hållning i det är att defaults aldrig säger något om vad man verkligen kan få ut ur en kamera default eller en RAW-konverterare utan det är mer viktigt därför att ett bättre utgångsläge alltid är bättre än ett sämre eftersom det spar tid och är effektivare. Adobe har länge inte brytt sig om detta och det har varit ett av skälen för mig att byta RAW-konverterare.

Jag undrar verkligen om de faktiskt lämnat autoläget - Picture Profiles "PP Off" och Movie/HFR "Program Auto". Det finns ju möjlighet till annat än defaults om man vill.

Den här typen av diskussion är egentligen alltför lik den diskussion vi haft tidigare kring alla konstiga svepande uttalanden om AF från olika tillverkare och i olika kameror. Jag tror att grundproblemet är att kameror ska testas men att man varken har kunskap eller riktigt med tid sådana tester kräver om de ska säga något. Video är mycket svårare och mer komplext att testa än stillbild i systemkameror för ett av problemen är ju att allt som funkar för stillbild inte nödvändigtvis gör det för video.

Hittills har jag bara sett någon enstaka "test" av AF värd att bry sig om och när det gäller video har vi fortsatt en lång väg att gå för det är som sagt än mer komplext än rena AF-tester. Så jag tycker uttalanden som dessa svepande pastejer vi ofta får till vardags så här är tämligen meningslösa och ointressanta. De skapar bara onödig förvirring och ökar inte vår kunskap ett dugg. Ska vi prata om videokvalitet vid "tester" så borde den diskussionen vara betydligt mer detaljerad än det vi oftast sett hittills främst när det gäller dess förutsättningar.
 
Jag köpte en (dyr) 4K-TV med större DR och upplever högre kontrast. Upplever jag fel? Tyckte det var lätt att se i butiken där apparaterna stod bredvid varandra, det svarta var svartare. Hade de en för bra demo?

Kan du förklara vad du menar?

Nej, jag tror en del rör samman hur ett större kontrastomfång på en kamera kan ge en gråare bild. Däremot en skärm som har ett större kontrastomfång har antingen en djupare svärta eller en ljusare högdager = högre kontrast.
 
Skärmens kontrastomfång är väl inte upp till den som redigerar bilderna, vare sig de är rörliga eller stilla.

Hur kamerans kontrastomfång utnyttjas = hur bilden blir, är förstås upp till den som redigerar.

Jag jobbar mycket med ljus/kurvor/kontrast, sänker i princip alltid den globala kontrasten genom två RAW-konverteringar, eller bättre, två riktiga exponeringar.

Jag vet faktiskt inte hur många stegs DR min TV har. Eller hur många stegs DR mina skärmar har.
 
Det får inte bli för krångligt med allting eller, skojigt med DPR som kämpar med autofokusen och inställningar med A6500, supervana testare, hur skall det gå när vanligt folk köper en sådan kamera, 4K skall skalas ner till Full HD för att bli som bäst, om man skall köra med det, kurser som för en Dataingenjörer och autofokusskolor måste snart behövas.

Kan inte Sony plocka tillbaks idén med färdiga små kort att stoppa i kameran ( hade sådana kort till en modell ) om man inte vill utöka med direktknappar, vi måste få användarvänliga kameror.

Kolla på denna video angående videoinställning i Sony A6300 Erik Nordmark och Bengt (A6500 är nog lika dan men med ytterligare valmöjligheter). Video är ingen lek ens i en systemkamera av idag och de inställningsmöjligheter som ligger under Picture Profiles är massiva och en del är svåra att få överblick eftersom en del menyer är hierarkiska i tre steg ibland. Tänk också att dessa inställningar sedan kan paras med "Picture Effects" och en hel del annat. Det finns nio förinställda PP och de kan enkelt ändras om man nu vill det. På toppen av det är det alla AF inställningar som är möjliga med film och även förstås MF.

https://youtu.be/wIU7bsQuHr4

Det är därför jag påpekar att den typen av slappa omdömen av proffstestare som du refererat till inte är någon större vägledning för oss som vill lära oss mer och förstå. Kollar vi bara denna lilla video så inser nog de flesta av oss att ska vi in i detta och förstå det så måste vi nog läsa på lite mer lite till mans och det gäller nog också dPreviews killar vad det verkar.

Det finns inställningsguider för PP på nätet (i detta fall för A7s men den kan ju tjäna som ett exempel).

http://helpguide.sony.net/ilc/1420/v1/en/contents/TP0000435736.html

Citat från denna länk:

"
Gamma
Selects a gamma curve.
Movie: Standard gamma curve for movies
Still: Standard gamma curve for still images
Cine1: Softens the contrast in dark parts and emphasizes gradation in bright parts to produce a relaxed color movie. (equivalent to HG4609G33)
Cine2: Similar to [Cine1] but optimized for editing with up to 100% video signal. (equivalent to HG4600G30)
Cine3: Intensifies the contrast in light and shade more than [Cine1] and [Cine2] and strengthens gradation in black.
Cine4: Strengthens the contrast in dark parts more than [Cine3]. The contrast in dark parts is lower and the contrast in bright parts is higher than for [Movie].
ITU709: Gamma curve that corresponds to ITU-709.
ITU709(800%): Gamma curve for confirming scenes on the assumption of shooting using [S-Log2].
S-Log2: Gamma curve for [S-Log2]. This setting is based on the assumption that the picture will be processed after shooting. "

OBS! även S-Log 3 finns i A6300 och A6500. Notera också att man påpekar behovet av efterbehandling av S-log som väl kan tolkas som att man ska se det formatet ungefär som man ser på RAW för stillbild.

Notera också skillnaderna mellan Cine 1 till Cine 4 när det gäller exv. kontrasten.

Det krävs nog av en testare att han/hon även beaktar de möjligheter som finns under Picture Profiles också och det gör det av oss vanliga användare också om vi nu tar steget att helt lämna Auto-läget och de avstängda PP som vi har vid leveransen av kamerorna som standard.
 
Senast ändrad:
Skärmens kontrastomfång är väl inte upp till den som redigerar bilderna, vare sig de är rörliga eller stilla.

Nä, är det någon som hävdat det? Men det är ju trots allt så som Ola säger att vi genom de inställningar vi ställt in vid filmning eller stillbild kommer att påverka omfånget som vi får i "färdiga" bilder och film ur kameran. Det är ju det jag försökt diskutera med Bengt i alla fall. Efterbehandlar man dessutom så kommer man göra ytterligare förändringar av dessa parametrar med nya resultat.

dPreview har kommenterat hur en film ser ut som kommer ur en A6500. Det var upprinnelsen till diskussionen. Jag tror inte vi är osams om att skärmen är som skärmen är men det är ju inte så att en bild som visas på skärmen alltid tar i bruk skärmens hela möjliga omfång eftersom antingen kameran eller efterbehandlaren kastat bort en del av detta omfång eftersom man inte vill ha det fullt ut av olika skäl.

Är det inte du som blandar ihop att man nu kan få fler nyanser i högdagrar och lågdagrar genom 4K och möjlig ökad kontrast med vad det faktiskt blir resultatet vid vanlig användning av kameran och redigeringsverktyg där en del av detta omfång faktiskt slaktas för att man ska få mer stuns i bilderna. Det de flesta som vill ha mer "krispiga bilder" med mer stuns gör är ju att göra sig av med en del av bildens ursprungliga nyanser och det är de som kommer att visas och inte alla de som skärmen är kapabel till att visa eller hur?
 
Jag vet faktiskt inte hur många stegs DR min TV har. Eller hur många stegs DR mina skärmar har.

Kalibrerar du dina skärmar? Då mäts ljusstyrkan i de ljusaste och de mörkaste partierna. Om du har en ljusstyrka i det ljusaste partiet på 500 cd/m2 och 0,2 cd/m2 i det mörkaste har du ett kontastomfång på 500/0,2 = 2500 : 1. Ska du ha en skärm där du vill matcha hur en utskrift kommer att se ut bör du ha ett kontrastomfång på cirka 300 – 400 : 1.
 
Det här med 4K och DR, de flesta konsumentkameror ger inte högre DR vid 4K än vid FHD på grund av det helt enkelt inte har stöd för det. Problemet heter 8 bit 4:2:0 som Sony liksom GH4 kör med om man lagrar direkt på SD-kortet i kameran. GH4 fick en V-log uppgradering som möjliggjorde 10 bit 4:2:2 internt.
För att få ut högre DR är man alltså tvungen att använda externa recorders eftersom HDMI-utgången skickar ut en 4:2:2 signal men Sony kör fortfarande 8-bit medans GH4 kör 10-bitar.
Skillnaden man kan se i FHD vs 4K i 8-bitar 4:2:0 verkar, om jag förstått det rätt, härstamma från hur codecen fungerar.

Att en ny 4K skärm ger högre upplevd DR kan ju lika gärna bero på att den gamla inte klarade av att visa ens 8-bitar korrekt. Nyare skärmar är ju både ljusstarkare och "svartare" vilket i sin tur förhöjer upplevesen av kontrast och är de certifierade för UHD så ska de ju klara minst 10-bitar 4:2:2

Slutsats, video är lurigt :)
 
Att en ny 4K skärm ger högre upplevd DR kan ju lika gärna bero på att den gamla inte klarade av att visa ens 8-bitar korrekt. Nyare skärmar är ju både ljusstarkare och "svartare" vilket i sin tur förhöjer upplevesen av kontrast och är de certifierade för UHD så ska de ju klara minst 10-bitar 4:2:2

Slutsats, video är lurigt :)
Och om den arbetar i 10 eller 8 bitar har ju bara med antalet valörer som kan återges, inte vilket omfång den kan återges.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar