Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Varför ska man INTE ha 4K?

Produkter
(logga in för att koppla)
Kanske är det så att ingen ny kamera är sämre på stillbild än föregående generation pga av att den kan filma också, men hade den nya kameran kunna vara bättre på stillbild om sensorelektroniken (dvs sensor och alla kringelektronik) hade kunnat konstrueras utan att behöva kunna fånga rörliga bilder?

Martin Agfors kanske har kunskaper om denna hypotetiska fråga.
 
Är det inte bättre med HDMI från dator om du har problem med USB? Helst ska det ju vara HDMI 2.0 eller senare men även äldre HDMI är väl bättre än USB i alla fall.

Det är lättare att ta med sig en sticka eller minneskort med läsare än en dator. Bort el. hemma till ett annat rum.

En extern snurrdisk är för långsam för 4K men duger bra för HD.
 
Fullständig 4K visar inte den 17-9 UHD 16-9.

Köpte ny teve 2013 och det var ingen 4K, så visst får den hänga med ett tag till, som sagt 4K kommer till dom allra flesta kameror och teveapparater, man behöver inte använda 4K om man inte vill så klart, vid försäljning eller inbyte av sin kamera kan det vara en fördel om den har 4K inbillar jag mig.
 
För att en optimera en kamerasensor/funktionalitet stillbild vs filmning är olika. Jag som ogillar filma skulle vilja ha en kamera optimerad för stillbild och ha filmning bortprioriterad. (Läs som det står, inte bortplockad alltså)

/stefan

Din kamera är optimerad för detta. Alla reglage, menysystem etc. Videon är bonus. Är det något du känner de kompromissat med för video på din kamera?
 
Sensorkonstruktionen. Ett bra tag har det varit så att man måste göra kompromisser när det gäller utläsningen av sensorn om kameran ska kunna göra både stillbilder och video.

Men det kanske är överspelat?
 
Sensorkonstruktionen. Ett bra tag har det varit så att man måste göra kompromisser när det gäller utläsningen av sensorn om kameran ska kunna göra både stillbilder och video.

Men det kanske är överspelat?

Precis Per. Det är tyvärr fortfarande så. En videofunktion är inte så simpelt som att bara stoppa en effetkiv mjukvara i firmware för att omvandla signalerna till video. Låt oss lämna det tekniska på den nivån. Iaf jag kommer det iaf.

/stefan
 
Men är inte tappet av kvalitet mer beroende av andra faktorer än sensoroptimering? Jag tycker en del 4K video inte ger ett dugg och en del av de dåliga exempel man kan se undrar jag om det inte mer handlar om dålig inspelningsteknik, överföringsteknik eller möjligen för dåliga objektiv.

Det finns säkert de som inte är nöjda med Sonys sensor i A7r II också men den bildkvaliteten bör väl ändå räcka och bli över och för de allra flesta så är det nog ordentlig overkill i alla avseenden, så om nu sensorernas optimering för video skulle vara ett sänke för stillbilderna så undrar jag om det verkligen kan vara annat än ett rent akademiskt problem i så fall. Hittills har jag aldrig stött på något empiriskt material om något sådant. Går det verkligen att se i så fall?
 
Senast ändrad:
NJae, det handlar snarare om att stillbildskvaliteten kan bli lidande av att kameran dessutom ska klara av att spela in video.
 
Det är lättare att ta med sig en sticka eller minneskort med läsare än en dator. Bort el. hemma till ett annat rum.

En extern snurrdisk är för långsam för 4K men duger bra för HD.

Men en SATA 3 disk i en hållare som är gjord för USB 3 eller 3.1 rent av borde väl funka i en dator eller TV som har den typen av USB-portar. USB 3.1 (jag har två sådana i min dator och fyra 3.0 och så ser det väl ut idag i många datorer (stationära) ). USB 3.1 ska ju klara 10 Gbit/sek i senaste version om jag inte har fel. Det blir ju viktigt nu att köpa rätt grejor så att man inte skapar onödiga flaskhalsar för man exv. har gamla versioner av USB i datorer och andra tillbehör.
 
En klargörande skrivelse

4k/Ultra HD, det nya 1080p?

Av: Linda Hedman (Högskolan i Väst)

http://media.hv.se/kurser/ail/fordjupningsarbeten-ii/4kultra-hd-det-nya-1080p/


Jag tyckte skrivningarna i länken ovan var rätt klargörande så här långt.
Citerar med några utdrag jag tycker var viktiga i den rätt långa skrivningen.

Citat:

"Sammanfattning enligt skrivningen: ("systemkrav" min anm.)

För att filmer och annat material i 4k ska kunna användas till fullo innebär det att hela kedjan från produktion till visning kan stödja den nya upplösningen.

Vad behövs för att kunna producera och ta del av 4k/Ultra-HD:
• Kamera som kan filma i 4k
• Skärm som klarar av att visa upplösning på 3840x2160px och HDR.
• Tillräckligt med lagringsutrymme för att kunna bearbeta de stora filerna
• Tillräckligt med bandbredd
• HDMI 2.0.
• Parabol vid satellitmottagning.
• HEVC/H.265-stöd
• 10-bitars färgdjup"

Citat 2:

"I Sverige finns det ännu inga kommersiella kanaler som sänder Ultra HD via satellit, utan det material som finns erbjuds via olika streaming-kanaler som t.ex. Netflix (Astra, u.å). Dock sänder Netflix med för låg hastighet (15 Mbit/s), för låg frekvens (25 bilder/s) samt för dåligt färgdjup för att det ska kunna kallas Ultra HD. I Europa finns det däremot några kanaler som sänder Ultra HD, och runt år 2025 uppskattas det finnas ca 1000 Ultra HD-kanaler globalt (Norling, 2016).
Idag finns det redan några filmer i 4k-upplösning, och under 2016 har Warner Brothers lovat att drygt 30-talet titlar ska finnas tillgängliga (Norling, 2016). Några av de filmer som finns idag är Avatar och Hobbit (Hage, 2013).

Idag finns det även ingen direkt standard för vad Ultra HD och HDR innebär, t.ex. när det gäller en tv, menar Norling (2016). Det finns de två olika stadierna inom utvecklingen av Ultra HD, steg ett som handlar om pixlar och steg två som handlar om färg. För tillfället är vi i steg ett, medan steg två fortfarande är i utvecklingsfasen. De olika faserna innebär att olika standards för Ultra HD behövs ta fram för att kunna få en komplett standard. Norling menar också att det är svårt att sätta en standard för färgåtergivningen som steg två innebär då alla uppfattar färg olika."


OBS!

Så det Netflix labbar med nu underkänns då "framerate" bara är på 25 fps och att färgdjupet lågt och därför menar denna skribent att det inte ens kan kallas UHD/4K. För den låga kvaliteten är dock systemkravet minst 15 Mbit/sek.

Jag tror dock leverantörerna kommer vara den stora flaskhalsen och inte nödvändigtvis hushållens utrustning. Jag har Bredbandsbolaget (ca 100 Mbit) och deras senaste WIFI-router ger med min dator som liksom routern stöder 5 GHz-WIFI-bandet ca 120 Mbit/sek i nedladdningshastighet och ca 1/10 av den hastigheten i "upload". Så det kommer nog inte vara några större problem med själva bredbandets bandbredd även om man ökar färgdjupet och "framrate".

Jag har själv en ny ASUS-burk som har ett hyfsat grafikkort som standard men inget extremt, så det är absolut ingen monstermaskin. Jag tror den kostade strax under 7000 spänn. Jag har inte sett några problem med laggningar i uppspelningen utan allt jag kört hittills har funkat fint. Sedan behöver man ju en 4K-skärm som stöder HDMI 2.0 eller senare också. Viktigt också som sagt att maskinen är utrustad med minst USB 3.0 och helst 3.1 (version 2). Alla tillbehör som exv. externa diskar måste funka med USB 3.x. När det gäller HDMI, DVI och Display Port-kablar så är dessa desamma som tidigare. Inget nytt där än (bortsett från USB 3.1 som introducerar en ny kabel som ska ersätta den lätt vildvuxna flora som finns nu)

Netflix själva rekommenderar 25 Mbit/sek för UHD.
 
4k/Ultra HD, det nya 1080p?

Av: Linda Hedman (Högskolan i Väst)

http://media.hv.se/kurser/ail/fordjupningsarbeten-ii/4kultra-hd-det-nya-1080p/


Jag tyckte skrivningarna i länken ovan var rätt klargörande så här långt.
Citerar med några utdrag jag tycker var viktiga i den rätt långa skrivningen.

Citat:

"Sammanfattning enligt skrivningen: ("systemkrav" min anm.)

För att filmer och annat material i 4k ska kunna användas till fullo innebär det att hela kedjan från produktion till visning kan stödja den nya upplösningen.

Vad behövs för att kunna producera och ta del av 4k/Ultra-HD:
• Kamera som kan filma i 4k
• Skärm som klarar av att visa upplösning på 3840x2160px och HDR.
• Tillräckligt med lagringsutrymme för att kunna bearbeta de stora filerna
• Tillräckligt med bandbredd
• HDMI 2.0.
• Parabol vid satellitmottagning.
• HEVC/H.265-stöd
• 10-bitars färgdjup"

Citat 2:

"I Sverige finns det ännu inga kommersiella kanaler som sänder Ultra HD via satellit, utan det material som finns erbjuds via olika streaming-kanaler som t.ex. Netflix (Astra, u.å). Dock sänder Netflix med för låg hastighet (15 Mbit/s), för låg frekvens (25 bilder/s) samt för dåligt färgdjup för att det ska kunna kallas Ultra HD. I Europa finns det däremot några kanaler som sänder Ultra HD, och runt år 2025 uppskattas det finnas ca 1000 Ultra HD-kanaler globalt (Norling, 2016).
Idag finns det redan några filmer i 4k-upplösning, och under 2016 har Warner Brothers lovat att drygt 30-talet titlar ska finnas tillgängliga (Norling, 2016). Några av de filmer som finns idag är Avatar och Hobbit (Hage, 2013).

Idag finns det även ingen direkt standard för vad Ultra HD och HDR innebär, t.ex. när det gäller en tv, menar Norling (2016). Det finns de två olika stadierna inom utvecklingen av Ultra HD, steg ett som handlar om pixlar och steg två som handlar om färg. För tillfället är vi i steg ett, medan steg två fortfarande är i utvecklingsfasen. De olika faserna innebär att olika standards för Ultra HD behövs ta fram för att kunna få en komplett standard. Norling menar också att det är svårt att sätta en standard för färgåtergivningen som steg två innebär då alla uppfattar färg olika."


OBS!

Så det Netflix labbar med nu underkänns då "framerate" bara är på 25 fps och att färgdjupet lågt och därför menar denna skribent att det inte ens kan kallas UHD/4K. För den låga kvaliteten är dock systemkravet minst 15 Mbit/sek.

Jag tror dock leverantörerna kommer vara den stora flaskhalsen och inte nödvändigtvis hushållens utrustning. Jag har Bredbandsbolaget (ca 100 Mbit) och deras senaste WIFI-router ger med min dator som liksom routern stöder 5 GHz-WIFI-bandet ca 120 Mbit/sek i nedladdningshastighet och ca 1/10 av den hastigheten i "upload". Så det kommer nog inte vara några större problem med själva bredbandets bandbredd även om man ökar färgdjupet och "framrate".

Jag har själv en ny ASUS-burk som har ett hyfsat grafikkort som standard men inget extremt, så det är absolut ingen monstermaskin. Jag tror den kostade strax under 7000 spänn. Jag har inte sett några problem med laggningar i uppspelningen utan allt jag kört hittills har funkat fint. Sedan behöver man ju en 4K-skärm som stöder HDMI 2.0 eller senare också. Viktigt också som sagt att maskinen är utrustad med minst USB 3.0 och helst 3.1 (version 2). Alla tillbehör som exv. externa diskar måste funka med USB 3.x. När det gäller HDMI, DVI och Display Port-kablar så är dessa desamma som tidigare. Inget nytt där än (bortsett från USB 3.1 som introducerar en ny kabel som ska ersätta den lätt vildvuxna flora som finns nu)

Netflix själva rekommenderar 25 Mbit/sek för UHD.

Tack för den klargörande länken.

När jag redigerar mina 4K-filmer så renderar jag ut dem i 50-60 mbps. Det går att välja lägre hastighet också beroende på bildernas karaktär. Väldigt detaljrika bilder med mycket rörelse kräver hög bitrate. Olika redigeringsprogram kör olika codecs vilket i högsta grad påverkar kvalitet och möjlig bitrate. Sönderkomprimerad video ser fruktansvärd ut.
Denna verksamhet är en mycket snårig djungel.

En liten slutkläm i det hela. Filmens ljud är viktigare att tänka på än bilderna. Lite slarv med skärpa, komposition, kontrast etc. är relativt förlåtande. Men dåligt ljud är svårt att stå ut med. Hörseln är väl känsligare och basal för oss helt enkelt.
 
Tack för den klargörande länken.

När jag redigerar mina 4K-filmer så renderar jag ut dem i 50-60 mbps. Det går att välja lägre hastighet också beroende på bildernas karaktär. Väldigt detaljrika bilder med mycket rörelse kräver hög bitrate. Olika redigeringsprogram kör olika codecs vilket i högsta grad påverkar kvalitet och möjlig bitrate. Sönderkomprimerad video ser fruktansvärd ut.
Denna verksamhet är en mycket snårig djungel.

En liten slutkläm i det hela. Filmens ljud är viktigare att tänka på än bilderna. Lite slarv med skärpa, komposition, kontrast etc. är relativt förlåtande. Men dåligt ljud är svårt att stå ut med. Hörseln är väl känsligare och basal för oss helt enkelt.

Bra påpekande om ljudet det är ju lätt att glömma i all övrig bildcentrerad diskussion.

Sedan är det ju som jag också skrev ovan i tråden att det faktiskt är skillnad på hur olika tillverkares teknik hanterar signalerna. Det var faktiskt stor skillnad på just det du pratar om kring detaljeringen vid exv. panoreringar. De 42" TV jag såg sist såg mycket olika ut och märkligt nog så var det Samsung som inte riktigt höll måttet bredvid en Phillips i det fallet och det var ju samma demoslinga som rullade på båda.

Min slutsats är att jag aldrig skulle köpa 4K TV osett via nätet. Butikerna behövs verkligen i det fallet.
 
Sedan är det ju som jag också skrev ovan i tråden att det faktiskt är skillnad på hur olika tillverkares teknik hanterar signalerna. Det var faktiskt stor skillnad på just det du pratar om kring detaljeringen vid exv. panoreringar. De 42" TV jag såg sist såg mycket olika ut och märkligt nog så var det Samsung som inte riktigt höll måttet bredvid en Phillips i det fallet och det var ju samma demoslinga som rullade på båda.

Min slutsats är att jag aldrig skulle köpa 4K TV osett via nätet. Butikerna behövs verkligen i det fallet.

Ett stort problem här är att materialet kan vara 24p men signalen från uppspelaren till skärmen 60p. Då måste skärmen kompensera och du får ryckiga panoreringar. Vissa kombinationer är värre än andra.
Så tipset är att, om möjligt, ställa in utrustningen så att skärmens uppdateringsfrekvens matchar bildmaterialet. Alla dessa så kallade bildförbättringsegenskaper som tillverkarna envisas med att marknadsföra förvränger bilden på det ena eller andra sättet så det första jag gör när jag köper en ny tv/skärm är att slå av allt sådant.
 
Ja och min fråga är då: "Hur då?"
Hur märker man det?
Jag har också läst detta men var finns empirin?
Du brukar ju vara noga med det.
Jag läste en rätt bra förklaring i Fotosidans forum för ett tag sen, men jag minns förstås inte var. Vi får se om jag orkar leta rätt på den under julhelgen.

Min luddiga tes: video kräver i allmänhet snabbare utläsning av sensorn, så man måste konstruera den för att klara det. Det medför i sin tur nånting som degraderar signalen mer än vad som hade behövts om man hade nöjt sig med utläsning för stillbilder.

Men jag vet inte om detta fortfarande gäller, eller om det börjar bli överspelat av den tekniska utvecklingen. Det var därför jag ställde frågorna i inlägg #57 och inlägg #66.
 
Två små kommentarer.
  1. Parabolantenn behöver man för all sorts satellitmottagning. Det är inte specifikt för 4K.
  2. En färgstandard kan givetvis inte baseras på hur folk uppfattar färger. Det finns ju färgstandarder inom andra områden, så den naturliga frågan blir då varför det skulle vara svårare för 4K-teve?
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar