ANNONS
Annons

Nikon D3200 filmning

Produkter
(logga in för att koppla)
Vad hade du tänkt att göra med dessa extra pixlar om du kunde läsa av dem?

För övrigt är det fortfarande så att man inte kastar bort ngt ljus. Man väljer att inte läsa in alla pixlar o det är ju inte riktigt samma sak.
 
Vad hade du tänkt att göra med dessa extra pixlar om du kunde läsa av dem?

För övrigt är det fortfarande så att man inte kastar bort ngt ljus. Man väljer att inte läsa in alla pixlar o det är ju inte riktigt samma sak.

Nu har du otur när du tänkter. Pixlar räknar i princip fotoner och om du inte läser in dem så kastar du bort det ljus som faller på dem. Det här innebär att du får ett sämre signal/brusförhållande (läs brusigare bild).

Binning innebär att man slår ihop värden från flera pixlar exempelvis 2x2 pixlar till ett värde, på det sättet använder man allt ljus som träffar sensorn. Det här är vanligare inom tex astrofoto där allt går ut på att få så bra signal/brusförhållande som möjligt. Men även konsumentkameror använder ibland binning för att skapa videosignaler.
 
Nu har du otur när du tänkter. Pixlar räknar i princip fotoner och om du inte läser in dem så kastar du bort det ljus som faller på dem. Det här innebär att du får ett sämre signal/brusförhållande (läs brusigare bild).

Binning innebär att man slår ihop värden från flera pixlar exempelvis 2x2 pixlar till ett värde, på det sättet använder man allt ljus som träffar sensorn. Det här är vanligare inom tex astrofoto där allt går ut på att få så bra signal/brusförhållande som möjligt. Men även konsumentkameror använder ibland binning för att skapa videosignaler.
Det är kameratillverkaren som har VALT att kameran SKALL fungera så. Den KASTAR INTE bort ngt alls Den läser in det den är tillsagd att läsa in.

Är du inte nöjd med det, köp en annan kamera.

Ja då ökar givetvis binning signal/brusförhållandet.
Frågan blir då varför man väljer att inte använda binning. Kanske beror det på skärpeförluster eller ngt annat strul.
Svaret är troligtvis pga snåla och bekväma fotografer.

När du nämner astrofoto, vilken ekonomisk nivå av astrofoto skriver du om?
 
Snarare snåla och bekväma kameratillverkare. Har man Canon och kör Magic Lantern så får man binning på köpet, så några tekniska svårigheter är det inte som sätter några käppar i hjulet.

Och ja, stänger man av pixlar i sin sensor så kastar man bort det ljus som träffar de avstängda pixlarna. Det är ju klart som korvspad. Det är det som händer när man filmar. Samma sak händer inte när man fotar medium eller small JPEG. Då skalas bilden ner i stället.
 
Snarare snåla och bekväma kameratillverkare. Har man Canon och kör Magic Lantern så får man binning på köpet, så några tekniska svårigheter är det inte som sätter några käppar i

ML får till det alltså? Trodde problemet var överföringshastigheten från sensorn. Borde ge avsevärd skillnad i IQ vid filmning. Tester / exempel någon?



Skickas från min iPhone via Tapatalk
 
Snarare snåla och bekväma kameratillverkare. Har man Canon och kör Magic Lantern så får man binning på köpet, så några tekniska svårigheter är det inte som sätter några käppar i hjulet.
Är du säker på att du får binning Med ML?
Jag trodde att man filmade med högre upplösning.
Alltså fler pixlar, inte med binning.
 
Är du säker på att du får binning Med ML?
Jag trodde att man filmade med högre upplösning.
Alltså fler pixlar, inte med binning.

Fler pixlar igång på sensorn fångar mer ljus. Skala ner videon har jag för mig att den kan göra i realtid (någon större koll på ML har jag inte, jag är Nikonist), men om det inte går så kan man göra det i efterhand. Oavsett vilket så får man högre signal/brus förhållande.
 
Den fångar FLER ljus, inte mer ljus per ytenhet som är avläst.
Vilken DEN kan göra VAD i realtid?
VAD är det du kan göra i efterhand?
Och VAD använder du när du nu gör det du skall i efterhand?

På vilket sätt får du högre S/N?
Och säg nu inte att S/N blir högre för att du läser fler pixlar. Det är faktiskt inte omöjligt att det skulle bli sämre pga högre effektutveckling i sensorn. Filmar du drygt 30 min i varm lokal så kan tex en D3100a stänga av pga överhettad sensor.
 
Det finns inget som heter "fler ljus". Fler fotoner heter "mer ljus"och ju fler fotoner man fångar desto bättre signal/brus förhållande får man. Elementär signalbehandling.

Låt mig dra ett räknexempel:
En Nikon D3200 har en 23,2×15,4 mm CMOS-sensor med 6016×4000 pixlar.
Om man filmar i 1920×1080 så kommer bara 8% av alla pixlar att användas. De andra pixlarna kommer att vara avstängda.
Om man i stället summerade färgvärdena för fyra närliggande pixlar så skulle man använda 34% av alla pixlar och dessutom fånga fyra gånger så mycket ljus.

Om du påstår att man inte läser av mer ljus per ytenhet så bortser du ifrån att en "ytenhet" i 1080p är 12×14 μm, inte 3,8×3,8 μm.
 
Senast ändrad:
Nä fler ljus blev inge bra, fler pixlar borde jag skrivit.
O du fångar inte mer ljus per ytenhet om du läser 1 eller 10 pixlar(förutsat att det lyser lika intensivt över hela ytan).

Jag förstår att binning ökar S/N.

Men jag önskar att du besvarar mina frågor angående dina tidigare påståenden.
Vilken DEN kan göra VAD i realtid?
VAD är det du kan göra i efterhand?
Och VAD använder du när du nu gör det du skall i efterhand?

På vilket sätt får du högre S/N?
 
Nä fler ljus blev inge bra, fler pixlar borde jag skrivit.
O du fångar inte mer ljus per ytenhet om du läser 1 eller 10 pixlar (förutsat att det lyser lika intensivt över hela ytan).
Jo, jag fångar fler fotoner per ytenhet om jag slår på fler sensorer per ytenhet. Om jag har sensorerna avstängda kastar jag bort de fotoner som träffar de avstängda pixlarna lika effektivt som om de hade stoppats av ett ND-filter.

Vilken DEN kan göra VAD i realtid?
Skala ner videon till 1920×1080 pixlar och summera färgvärdena för flera pixlar.

VAD är det du kan göra i efterhand?
Skala ner videon till 1920×1080 pixlar och summera färgvärdena för flera pixlar.

Och VAD använder du när du nu gör det du skall i efterhand?
Godtycklig videoredigeringsprogramvara.

På vilket sätt får du högre S/N?
Om jag fångar fler fotoner så får jag en starkare signal och därmed högre S/N-ratio. På samma man får högre S/N-ratio med en större antenn (eller fler antenner i en array, vilket nog är en bättre analog i det här fallet)
 
Jo, jag fångar fler fotoner per ytenhet om jag slår på fler sensorer per ytenhet. Om jag har sensorerna avstängda kastar jag bort de fotoner som träffar de avstängda pixlarna lika effektivt som om de hade stoppats av ett ND-filter.
Nej
OM det slår ner 1 foton per sekund per kvadratmeter.
OM du läser av 2 kvadratmeter så kommer du få 2 fotoner under 1 sekund.
Alltså 1 foton per sekund per kvadratmeter.
 
Skala ner videon till 1920×1080 pixlar och summera färgvärdena för flera pixlar.

Godtycklig videoredigeringsprogramvara.
Så du påstår att ALLA videoredigeringsprogramvaror kommer att jobba efter binningprincipen. Om det råmaterialet innehåller fler pixlar än den exporterade slutversionen.

VAR någonstans har du stöd i det påståendet???? Det är ju exakt DET jag vill veta. Att du gissar det bryr jag mig inte om. Jag vill veta var du hittar fakta som stödjer ditt påstående.
 
Om jag fångar fler fotoner så får jag en starkare signal och därmed högre S/N-ratio.

På samma man får högre S/N-ratio med en större antenn (eller fler antenner i en array, vilket nog är en bättre analog i det här fallet)
Nej, din analogi i andra påståendet är inte sann.
Att man använder en KÄNSLIGARE antenn som därmed kan hitta fler fotoner på den avlästa ytan. DET är sant att det skulle ge ett högre S/N per ytenhet.

Med fler pixlar så får du fler antenner som är LIKA känsliga som innan. De har ingen möjlighet att öka S/N. S/N förhållandet är konstant för alla pixlar. Om du läser 1 eller 100 spelar ingen roll.
O härmed så faller andra halvan av argumentet i första påståendet.
Ja du får fler fotoner. Men nej du ökar inte S/N. Utan du får fler fotoner för att det är en större yta avläst.

Om man sedan i efterbehandlingen KONCENTRERAR signalen, mha binning, ja då ökar man S/N. Men det har du inte påvisat att det sker.

O snälla häng inte upp dig på min taskiga svenska angående ihopblandningen av man/du. Jag menar inte du personligen.
 
Nej
OM det slår ner 1 foton per sekund per kvadratmeter.
OM du läser av 2 kvadratmeter så kommer du få 2 fotoner under 1 sekund.
Alltså 1 foton per sekund per kvadratmeter.

Om på din kvadratmeter bara har igång en sensor som är 20x20 cm så här du bara 4% chans att upptäcka den fotonen. Om du har igång fyra sådana sensorer inom samma kvadratmeter ökar dina chanser till 16%. Resterande procent är och förblir bortkastade.
 
mina tips är att se till att kameran är inställd på manuella inställningar i filminställningarna i menyn, är det inte manuellt inställt där så kör kameran över användaren och det blir som i ett autoläge, samt neutral pictureprofile med låg kontrast och låg iso. 24bps och 1/50 shutter.

slotmotion äter mer ljus så för slowmotion shots krävs ju mer ljus.
pictureprofiles är också riktiga ljusätare så det är riktigt viktigt att ha en bra för det är lätt att öka kontraster och sånt i efterhand men svårt att återställa något som en pictureprofile mörklagt totalt.

jag har själv d3200 och tycker den är riktigt bra.
 
Om på din kvadratmeter bara har igång en sensor som är 20x20 cm så här du bara 4% chans att upptäcka den fotonen. Om du har igång fyra sådana sensorer inom samma kvadratmeter ökar dina chanser till 16%. Resterande procent är och förblir bortkastade.
Ja, det ökar insamlingen av data.
Men det förändrar inte S/N. Det är detsamma för varje 20x20.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar