Annons

Pentax 645D

Produkter
(logga in för att koppla)
Det man kan göra är att låta bli att ansluta delarna till varandra, utan bara lägga dem tajt bredvid varandra på substratet. De har då individuella matningar/läsningskanaler var för sig, och detta är ett mycket lättare sätt att lösa det

Ja det var ju så jag tänkte.
Vi skulle kunna slakta 36 st canon 1000d kameror och klistra ihop sensorerna till en big honking 4"x5" jättesensor.
Idag kostar en canon 1000d 3700kr i missbrukarledet, inkl moms. Vad skulle bara sensorn kosta?

Och återigen, hur komplicerat är det att ta ut signalerna bakåt och vilket spel mellan sensorerna kan man åstadkomma?

Man kan ju anta att det inte är så lätt, eller så är det så att ingen verkligen har prövat? Man tror kanske att folk skulle bli hysteriska av interpoleringen av de förlorade pixlarna runt kanterna?
 
Man måste bara älska uttrycket "How hard can it be?" .... :)

Hade en kollega som ideligen sa det, eller rättare sagt den svenska översättningen "hur svårt kan det va" ... Det jäkliga med honom var ju att för honom var nästan ingenting svårt vilket gjorde uttrycket lite irriterande att höra (det är alltid påfrestande att arbeta ihop med naturbegåvningar :)

Militära och industriella/medical tillämpningar tittar i stort sett alltid på tillförlitlighet i första hand och absolut bildkvalitet i andra hand. De har dessutom vett nog att i första hand titta på optikkvalitet i förstoring istället för att välja max antal MP de kan få tag på... Dalsa tillverkar ju dock redan en 110MP sensor (som kostar ungefär vad Pentax skulle ta betalt för en lastpall med 645D B2B).

Begränsningen ligger som vanligt i naturen. Det finns ingen nytta med snabb frame-rate och små pixlar - brusmängden ökar för snabbt med ljusminskningen. Men om vi tittar på t.ex machine-vision (där jag tidvis arbetat) så kan man ju i de flesta sammanhang tillföra direkt osannolika mängder ljus till det man mäter, och därigenom komma runt problemet. Detta är lite svårt vid t.ex satellitfotografering och andra militära/medical applikationer.... Här ligger hela hemligheten med målupplösning i optiken/efterbehandlingen - där den hör hemma.

Alltså, nu är ju mina sensor-teknik-kunskaper inte på någon toppnivå, men finns det några egentliga skillnader i absolut bildkvalitet och tillförlitlighet mellan CCD och CMOS? Som jag har förstått saken så handlar det väl i grunden om två olika tillvägagångssätt vid tillverkningen som i sin tur bland annat påverkar vad man kan stoppa in på själva sensorn ... Vilket bland annat har lett till att man valt ganska olika sätt att göra utläsningen ... Men själva de ljusinfångande pixlarna (sensels, brunnarna och allt vad de kallas :) de fungerar väl på samma sätt?

Eller finns det någon mer djupgående teknisk skillnad som gör att CCD ändå är att föredra för extremt krävande användning?

På den gamla onda tiden hade väl CMOS en klar nackdel i och med att det blev så mycket "rördragning" runt pixlar/sensels så att ytutnyttjandet och därmed ljuseffektiviteten blev dåligt. Men med tunnare rör (jaja ... :) och mikrolinser har man väl i stort sett jämnat ut de skillnaderna och kan då dra nytta av saker som snabbare utläsning och att CMOS - igen bara som jag (miss?)förstått - är billigare att tillverka genom att det blir färre tillverkningssteg och därmed färre källor till fel och kassationer.
 
Tillförlitlighet under strålning kan skilja en del, lite pga skillnaden i mängden aktiva komponenter och toleranserna på dessa... Gemensamt för många hysch-hysch och och astro-applikationer är dock att de kräver väldigt låga mörkerströmmar - vilket med vissa konstruktionssätt är lättare att uppnå med CCD.

Men i bildkvalitet skiljer inget speciellt, förutom om man vill sätta upp specifika krav på konstruktionen - om vissa specialkrav ska uppfyllas kan CCD vara bättre i applikationen, med andra kan CMOS vara bättre. Cellerna i sig självt är identiska (nästan, man kan hitta konstruktionsskillnader) - det är metodiken i ut-transporten av laddningen från cellen som skiljer.

Att ta ut signalerna bakåt är inga egentliga problem - så länge du håller dig på väldigt små sensorer. Det kräver BSI-teknik, och den största BSI jag känner till just nu är en prototyp på 12x12mm. Sony/Samsung och snart Micron(Aptina) också har alla ett par 6x4.5 och 5x3.5mm sensorer i produktion, i aktiva produkter - men det räcker ju inte så långt... :) De lägger dessutom sin omkringelektronik på kanterna - att sköta ALLT på baksidan kräver "stacking", en teknik som inte hittills använts på bildsensorer.

________________________
Inte mycket Pentax just nu - men sen finns det ju inte heller någon kamera att diskutera. Bara bilder och tillverkaruppgifter.

Kodak har lagt upp sensordatabladen nu.
http://www.kodak.com/global/plugins...ISS/datasheet/fullframe/KAF-40000LongSpec.pdf
Tyvärr ingen uppgift om vinkelkänslighet - vi får helt enkelt hoppas att den inte är så usel som i Leica S2 och M9. Nu är vidvinklarna på P645 aningen mer retrofokala samt med mindre relativa bländare än Leica-M-motsvarigheterna, men iaf.
 
Nu är vi som du nämnde kanske lite vid sidan av huvudämnet (nya 645D), men det här med varför sensorer till mellanformatare ser ut som de gör (jämförelsevis gammaldags och konservativa i designen och inte CMOS) känns ju ändå som det ändå kan vara lite relevant - hoppas andra läsare har tålamod :)

Tillförlitlighet under strålning kan skilja en del, lite pga skillnaden i mängden aktiva komponenter och toleranserna på dessa... Gemensamt för många hysch-hysch och och astro-applikationer är dock att de kräver väldigt låga mörkerströmmar - vilket med vissa konstruktionssätt är lättare att uppnå med CCD.

Men i bildkvalitet skiljer inget speciellt, förutom om man vill sätta upp specifika krav på konstruktionen - om vissa specialkrav ska uppfyllas kan CCD vara bättre i applikationen, med andra kan CMOS vara bättre. Cellerna i sig självt är identiska (nästan, man kan hitta konstruktionsskillnader) - det är metodiken i ut-transporten av laddningen från cellen som skiljer.

Ok, då känns det som jag inte helt hade missförstått det hela :)

Men innebär det också att de jämförelsevis måttliga ljuskänsligheterna hos mellanformatssensorer inte beror så mycket på CCD-tekniken som sådan, utan mer på hur man valt att prioritera egenskaperna hos de sensorer som byggs i de här storlekarna?

Att ta ut signalerna bakåt är inga egentliga problem - så länge du håller dig på väldigt små sensorer. Det kräver BSI-teknik, och den största BSI jag känner till just nu är en prototyp på 12x12mm. Sony/Samsung och snart Micron(Aptina) också har alla ett par 6x4.5 och 5x3.5mm sensorer i produktion, i aktiva produkter - men det räcker ju inte så långt... :) De lägger dessutom sin omkringelektronik på kanterna - att sköta ALLT på baksidan kräver "stacking", en teknik som inte hittills använts på bildsensorer.

Ah, en sensor på 6x4,5 mm ... Pentax kanske kan göra en udda kompaktkamera - Micro-645 :D

Inte mycket Pentax just nu - men sen finns det ju inte heller någon kamera att diskutera. Bara bilder och tillverkaruppgifter.

Kodak har lagt upp sensordatabladen nu.
http://www.kodak.com/global/plugins...ISS/datasheet/fullframe/KAF-40000LongSpec.pdf
Tyvärr ingen uppgift om vinkelkänslighet - vi får helt enkelt hoppas att den inte är så usel som i Leica S2 och M9. Nu är vidvinklarna på P645 aningen mer retrofokala samt med mindre relativa bländare än Leica-M-motsvarigheterna, men iaf.

I Pentax-chefens intervju på Luminous Landscape (http://www.luminous-landscape.com/reviews/cameras/pentax645d-1st.shtml) sade han bland annat:

"All the legacy lenses of the Pentax AF system can be used as-is on the 645D. Most of them are already at the right level quality wise but we are frankly speaking not totally happy about the wide end."

Det kan kanske röra sig om telecentricitetsproblem (vilket vackert ord!) vilket väl var ett lägre prioriterat fenomen på filmtiden jämfört med idag. Kombinerat med vinkelkänslighet hos en sensor blir det väl lite olyckligt.
 
CCD jämfört med cmos
en del lite gamla papper (Dalsa) men informativa , precis som Joakim redan har påtalat så har både ccd och cmos styrkor och svagheter beroende på var de används. Sedan har ju cmos utveckling med bla canon (Läs Eric Fossum på dpreview, "skaparen av den aktiva cmosen) , http://www.dpreview.com/members/9381744517/forums/Messages) gått fantastiskt framåt de senaste 10åren.

Pentax,det mest spännande tycker jag är att det "tryck" som det kan bli med mellanformatskameror och beror bla på att det inte finns något AA-filter, Pentax har valt bort AA-filter då de inte har sett några stora problem med moire.

http://www.dalsa.com/corp/markets/CCD_vs_CMOS.aspx
http://vfm.dalsa.com/shared/content/Photonics_Spectra_CCDvsCMOS_Litwiller.pdf
http://en.wikipedia.org/wiki/Image_sensor
http://www.semiconductor.net/blog/C...ny_Backside_Illuminated_CMOS_Image_Sensor.php
 
Senast ändrad:
Målgruppen för 645D är i första hand landskapsfotografer, enligt Pentax. Därför att 645 för film var en populär kamera för detta och Pentax hoppas att tidigare användare kommer att uppgradera. För landskapsfotografering så är moiré inget problem och därför valde Pentax bort AA filtret.
Just detta med avsaknad av AA filter är ju något som ofta kombineras med just Kodaks sensorer, inte minst Kodaks egna försök till systemkameror.
 
En annan stor skillnad mellan CCD och CMOS är väl att medan CCD kräver en egen tillverkningsprocess tillverkas CMOS i samma process som mängder av andra CMOS-kretsar, t.ex. minnen och processorer. Tillverkare av CMOS-sensorer drar därmed nytta av utvecklingen av andra typer av CMOS-kretsar.
 
Målgruppen för 645D är i första hand landskapsfotografer, enligt Pentax. Därför att 645 för film var en populär kamera för detta och Pentax hoppas att tidigare användare kommer att uppgradera. För landskapsfotografering så är moiré inget problem och därför valde Pentax bort AA filtret.
Just detta med avsaknad av AA filter är ju något som ofta kombineras med just Kodaks sensorer, inte minst Kodaks egna försök till systemkameror.

jo men om det är kodaks slr du menar så var upplösningen för låg och moire ett stort problem med avsaknad av aa-filtret
 
Njae, man kan inte bara ta en småsignalprocess och ploppa i en sensortillverkning - visst är det CMOS, men djupet på behandlingarna är helt annorlunda. Däremot hjälper det om man har CMOS i huset, då kör man olika lager på sensorn i olika maskiner. T.ex så kan man då köra mycket högre upplösningar på kontrollelektroniken, blanda metaller i vias/connects osv - vilken man kan tjäna massvis med fyllnadsfaktor på.

Moireproblemeet har lättat lite iom den högre fyllnadsgraden (hur stor delarea per pixel som FAKTISKT leder ner till ljusmätande dop) och högre upplösningar/smartare interpoleringsmotorer. Mikrolinserna i toppingen (på 645D) ska vara de bästa som någonsin suttit i en DMF (vilket iofs kan betyda samma sak som "de är aningens bättre eller ungefär lika bra som de i en kompaktkamera").

Tidigare har fyllnadsgraden varit nere på samma effekter/magnituder som man får om man kör en 50% nerskalning med "nearest neighbor" i Photoshop. Och då är inte ens färgupplösningen medräknad. Prova detta, och lägg på ett kopielager - lägg på 0.7% brus på detta och sätt lagerblandningen till "color". Bilden är då misstänkt lik en dåligt efterbehandlad AA-lös kamera.

En AA-lös kamera kan dock ALDRIG helt komma från problemet om man inte kör multi-shot. I ett slumpmässigt mål gör moiren att man (egentligen helt felaktigt) uppfattar bilden som "skarpare", men det som egentligen händer är att man har högre kontraster i kantartefakterna. I många fall kan denna skillnad kvitta - om man inte är känslig för problemet.

-I ytor som bara består av olika mörkheter av samma färgton får man full positiv effekt av att vara utan AA-filter. Maximal skärpa/kontrast.
-I ytor som har mönsterbildande fina raster (tyg, galler, staket, nät, osv osv) kan man aldrig återskapa det som "trillade imellan" - man får storskalig moire.
-I smala linjer med samma mörkhet men med olika färgton kan interpoleringen tappa bort sig helt, och börja blanda mörkhetsskillnad/färgtonskillnad.
-I skarpa kontraster som är för starka så får man småskalig moire (aliasing), som kan göra vassa kanter skimrande mångfärgade eller lite lätt taggiga.

Variant ett och fyra av dessa kan man balansera mot varandra i interpoleringen - minska den ena genom att öka den andra. Variant två och tre är oåterkalleligen förlorade - man kan lösa det storskaliga problemet genom avancerade sökalgoritmer, men man kan aldrig få tillbaka den förlorade detaljeringen.


Med tanke på den handikappade tethering-funktionen uppfattar jag också Pentaxen som en "utomhuskamera", inte en studiokamera. Till detta kommer den säkert vara lysande för det den kostar.
 
om man nu inte vill köra 4 skott och vill undvika moire " så är det bara att välja en kamera" med en sensor som har högre upplösning än vad objektivet kan återge.
 
Reflexion i optiken, ej Moire.

/Janne

Jag menar det labyrintliknande mönstret i bilden. Det kanske inte kallas moire men det är samma mönster som bildas när detaljfrekvensen (eller vad man ska kalla det) överskrider sensorns upplösning. Det har jag fler exempel på av mer klassiska slag som takpannor, staket och dylikt.
 
Jag menar det labyrintliknande mönstret i bilden. Det kanske inte kallas moire men det är samma mönster som bildas när detaljfrekvensen (eller vad man ska kalla det) överskrider sensorns upplösning. Det har jag fler exempel på av mer klassiska slag som takpannor, staket och dylikt.

Då är det moire, och gissningsvis i klassiska regnbågsfärger?!
I din bild var det enfärgat, kanske ett utläsnings-beräkninsfel?

Moire uppstår när du har interferns mellan sensor och motiv.

mvh.

/Janne
 
Vad sägs om det här fenomenet då? Moire skapat av själva objektivet, eller det är åtminstone vad jag antar att det är.

se http://www.fotosidan.se/forum/showpost.php?p=1433486&postcount=2

(Tyvärr var bilden tydligen över 100kB när jag laddade upp den så den blev automatiskt ersatt av en suddig 13kB version.)

Nej, det är helt vanlig moire, som inte har med objektivet att göra.
-Orsakat av en ganska extrem ljustemperatur, samt att det precis i problemområdet finns en extremt starkt avvikande färg - tillsammans med K10's svaga AA filter och Sony/Prime-kombinationens halvtaskiga kanalbalans och en råkonverterare som inte har vett att hantera problemet.

Sök på begreppet "maze" eller "mazing" i bl.a 7D-tråden.

Begreppet "moire" innefattar även detta då det är en mönsterupprepad felbedömning i interpoleringen (även om det inte alls har med detaljfrekvenser att göra). Konverteringsmoire, inte interferensmoire.
 
Med skapat av objektivet så menade jag det fanns inget fysiskt mönster i verkligheten att ta på, utan strålarna från lampan får olika utseende beroende på objektivet och nedbländingen. Och i detta fallet så framkallade det tydligen ett knepigt mönster/färg kombination som satte kameran/rawkonverteraren på pottan.


Går det att söka i en tråd? jag får bara upp tråden och sedan får jag själv vada igenom 100 sidor eller vad den nu var på.

Edit: tror jag hittade det.
 
Senast ändrad:
ANNONS
Upp till 6000:- Cashback på Sony-prylar