Annons

Canon EOS 7D

Gissningsvis får 60D samma sensor som 7D, men bara en processor (dvs inte lika snabb seriebildstagning), lite sämre video, inte lika sofistikerad AF, inte lika vädertätad. Alltså ungefär lika stora förändringar som det brukar vara mellan modellerna i xxD-serien. Om man bortser från det stora (men självklara) språnget att införa videomöjlighet.

Gissningsvis får 60D FF med ca 15 Mpix med lite sämre serietagning, AF, sökare, video, vädertätning mm än 5DII. Priset hamnar nog kring 17000:- till att börja med...
 
Jag tror inte att AF i 7D når upp i samma klass som 1DIII som jag tror är väldigt hög även om Rob Galbrait idogt försökt visa motsatsen, men han är nog bara en dålig "skytt".

Men nu har du tur, just din favorit Rob Galbraith har testkört ett förserieexemplar av 7D och verkar försiktigt optimistisk om dess autofokus.

http://www.robgalbraith.com/bins/multi_page.asp?cid=7-10042-10239

Jag tycker nog för övrigt att du dömer Rob Galbraith orättvist. Det han konstaterade var att det fanns ett antal problem i autofokusen hos 1D Mark III jämfört med hur bra det fungerade med Mark II. Problem som sedan har åtgärdats av Canon.

Att sedan diverse forummobbar har övertolkat det han skrev till att autofokusen i Mark III skulle vara kass, ja det är deras tolkning.

Han är för övrigt en ganska känd sportfotograf och av sina bilder och kunder att döma, en rätt hyfsad "skytt" :)
 
Skiljer sig pris och funktionalitet markant från varann så funkar det nog. Men det jag grunnar över är hur man håller isär en 7D och en 60D? Skall 60D kosta som 50D så måste Canon låta bli att bygga in de flesta av funktioner som nu dykt upp i 7D. Med andra ord skulle det inte hända ett dugg i steget 50D -> 60D. Bortsett från videon, kanske. Låter inte speciellt klokt.

Jag instämmer till fullo. 7D är ett väldigt bra komplement till 5D för sportfoto och liknande (precis som 1Ds & 1D). Däremot tror jag inte det blir någon försäljnigssucce eftersom inte speciellt många användare har sportfoto som huvudobjekt. 60D får vi antagligen vänta på tills 7D ska pensioneras för att de inte ska konkurrera. Alternativt får 60D låg prestanda och lägre pris.
 
30D är lite sämre än 40D som är lite sämre än 50D och 7D verkar vara lite bättre än 50D. Hur mycket återstår att ske. Den stora fördelen är att bruset minskar lite samtidigt som pixelmängden ökar.

Jag tror inte att AF i 7D når upp i samma klass som 1DIII som jag tror är väldigt hög även om Rob Galbrait idogt försökt visa motsatsen, men han är nog bara en dålig "skytt".

Tack för ett bra svar.
Angående AF så "tror" inte jag heller att de skulle göra den lika bra som 1D MarkIII och de skulle ju få svårt att sälja dem isf.
Intressant att att inte bruset ökar med så många pixlar.
 
Men nu har du tur, just din favorit Rob Galbraith har testkört ett förserieexemplar av 7D och verkar försiktigt optimistisk om dess autofokus.

http://www.robgalbraith.com/bins/multi_page.asp?cid=7-10042-10239

....

Jo, jag har sett hans försiktiga optimism om 7D men den andra kamerans "af-tjat" lämar vi nog därhän i den här tråden. Jag inte blev speciellt imponerad av hans redovisningar då så vad som kommer från han om 7D kan nog bli vad som helst misstänker jag, trots hans "försiktiga optimism", så vida han inte fick "kalla fötter" senast... ;-)
 
All files originated as RAW CR2s. They were converted in the upcoming Digital Photo Professional 3.7 and then sharpened using Smart Sharpen in Photoshop before being saved for download as low-compression JPEGs.

Tycker det varierar stort i hur brusiga testbilder på nätet är, har suttit och surfat lite i det ämnet.
Från Rob Galbraith sida om hur han gjort med testbilderna, han har förmodligen konvererat dom rakt av med defaultinställningar och sedan skärpt bruset. Därför ser hög-ISO bilderna sämre ut där än på andra ställen.
På dpReview är det blandat och en ISO 3200 bild ser bättre ut än en annan tagen på ISO 1600.
Hos imaging resource får jag intrycket att det är ungefär samma brusbild per pixel som 40D och således en förbättring i givet utskriftsformat.
http://imaging-resource.com/IMCOMP/COMPS01.HTM
Det är svårt att bilda sig en klar uppfattning, det beror på var man tittar och hur dom behandlat bilderna.
 
Diffraktionsgräns redan vid så stora bländare som 6.3 med
18 Mpix på APS-C?

Hittade detta på DPR:

"The Rayleigh criteria for minimum line separation is 1.22*wavelength*f-number. But this is the spacing between peaks of a pattern for a response at 9% MTF; the pixel spacing needed to sample this using the Nyquist criteria is half this spacing or 0.61*wavelength*f-number. For green 0.55 micron light in the middle of the optical band this pixel spacing is f-number/3 microns. The luminance resolution in the 7D comes from the green pixels which have a pitch of 4.3*sqrt(2) or 6.08 microns which is the diffraction limit for f/18 so your limit of f/6.3 is off by about a factor of three. " (DSPographer)

http://forums.dpreview.com/forums/read.asp?forum=1039&message=32894645

Kommentarer nån?...
 
Jag tänker inte blanda mig i det mer än att jag konstaterar att man kan räkna på olika sätt.

Jag kan mycket väl tänka mig att AF i 7D ur vissa synpunkter är bättre än in 1D Mark III. Det spelar ju ingen roll, marknadsmässigt, för en ny kameran måste ju ha något som drar till sig kunder. Den gamla (alltså 1D Mark III) säljer dels på lite andra funktioner och kvaliteter, dels lär den ju rimligtvis vara i läge för utbyte snart.

En 60D finns det plats för mellan 500D och 7D.
 
Jag räknar inte riktigt som DSPographer, som för övrigt har mycket vettigt att säga - om man har vett att sortera det. Här har han dock vänt lite på siffrorna... För att nyquist ska ha en chans att arbeta ska man dubbla mängden samples, inte halvera dem som han gör. Och det är dessutom onödigt... :)

Rayleigh (för grönt ljus) är som skrivs 1.22x0.55xFtal µm
Pixelpitch (c-c mått) är i x- och y-led ganska exakt storleken genom upplösningen:
22.3mm/5230pixlar = ~4.25µm - Jag har lagt till 50 pixlar, dom finns alltid där men används inte. Man drar dock inte av för dem när man räknar storleken på sensorn... :)

Sen ska man lägga till effekten av AA-filtret (litet) och färgfiltret (stort).
Enklast är att räkna på en svart linje på en vit bakgrund, här finns alla färger representerade.
Jag tycker han gör fel som räknar diagonaler, man kan se/mäta verklig påverkan redan vid raka x- och y-led - även om dessa pixlar inte har samma färgfilter framför sig på sensorn. Då hamnar man på:
1.22x0.55x(Ftal) = 4.25x(förlustfaktorn för AA och färgfilter)
>
Ftal = (4.25x(1.2?)) / (1.22x0.55) = 7.6

Vid F/7.6 (F/8 då!) är det alltså möjligt att SE och MÄTA en diffraktionsförlust med en tydlighet som inte kan misstolkas - om man vet att objektivet inte har några andra dumheter för sig.
Men jag är ganska säker på att man måste upp på F/11 för att få direkt störiga effekter (direkt, synbar kontrastförsämring) ens vid 100% på skärm.

Vid undersökningar bl.a på Fraunhofer har man kunnat påvisa att en "4-pixel-area" av diffraktion hjälpligt går att skärpa upp med förskärpningen i raw-omvandlaren eller med algoritmer som Richardson-Lucy eller bara Smart-sharpen (accurate) i Photoshop. Man förlorar en del detaljering, men vid normala utskrifter/påsynsstorlekar på skärm är skillnaden inte direkt störande - efter att efterbehandlingen gjort sitt!
 
15 till 18MP är väl inte revolutionerande - det är en storleksökning på ca 9% av bilderna... Men det ska bli intressant att se om Canon fått rätt på BÅDE sin implementering av följande autofokus OCH sina moteringstoleranser av AF-paketet... :)

Lite mer finns väl att tänka på ang. skärpan...
Om vi säger att vi monterar ett 50mm objektiv och tar ett foto på F/5.6 - dvs så skarpt objektivet klarar av att återge:
Varje pixel motsvarar då en bildvinkel framför kameran på ca
(2 x atan(11.15/50)) för att hitta bildvinkeln > 25.1º
Delat med 5200 pixlar på bredden > 0.0048º per pixel

En pixelförflyttning ger en betydande oskärpa, tillräckligt för att halvera den verkliga upplösningen på bilden. Vi kan säga att:
5 tusendels grad av skakning i kameran ger skakoskärpa på bilden! :)

Ock så undrar folk varför teleobjektiv är så svåra att ta skarpa bilder med... Detta exemplet gäller ett 50mm-objektiv!
 
Jag räknar inte riktigt som DSPographer, som för övrigt har mycket vettigt att säga - om man har vett att sortera det. Här har han dock vänt lite på siffrorna... För att nyquist ska ha en chans att arbeta ska man dubbla mängden samples, inte halvera dem som han gör. Och det är dessutom onödigt... :)

Rayleigh (för grönt ljus) är som skrivs 1.22x0.55xFtal µm
Pixelpitch (c-c mått) är i x- och y-led ganska exakt storleken genom upplösningen:
22.3mm/5230pixlar = ~4.25µm - Jag har lagt till 50 pixlar, dom finns alltid där men används inte. Man drar dock inte av för dem när man räknar storleken på sensorn... :)

Sen ska man lägga till effekten av AA-filtret (litet) och färgfiltret (stort).
Enklast är att räkna på en svart linje på en vit bakgrund, här finns alla färger representerade.
Jag tycker han gör fel som räknar diagonaler, man kan se/mäta verklig påverkan redan vid raka x- och y-led - även om dessa pixlar inte har samma färgfilter framför sig på sensorn. Då hamnar man på:
1.22x0.55x(Ftal) = 4.25x(förlustfaktorn för AA och färgfilter)
>
Ftal = (4.25x(1.2?)) / (1.22x0.55) = 7.6

Vid F/7.6 (F/8 då!) är det alltså möjligt att SE och MÄTA en diffraktionsförlust med en tydlighet som inte kan misstolkas - om man vet att objektivet inte har några andra dumheter för sig.
Men jag är ganska säker på att man måste upp på F/11 för att få direkt störiga effekter (direkt, synbar kontrastförsämring) ens vid 100% på skärm.

Vid undersökningar bl.a på Fraunhofer har man kunnat påvisa att en "4-pixel-area" av diffraktion hjälpligt går att skärpa upp med förskärpningen i raw-omvandlaren eller med algoritmer som Richardson-Lucy eller bara Smart-sharpen (accurate) i Photoshop. Man förlorar en del detaljering, men vid normala utskrifter/påsynsstorlekar på skärm är skillnaden inte direkt störande - efter att efterbehandlingen gjort sitt!

Men herregud. kom ner på jorden mu!
Låt kameran komma ut på marknaden och låt oss testa den med riktiga objekt innan ni bedömer den.
Allt är bara gissningar innan vi har testat den....

Mvh....Ingemar....
 
Tog hem en idag till mig själv... 170st var redan beställda (visserligen hos den största foto-distrubutören i sverige)... så det verkar bli ett jävla tryck efter denna.
 
Hemskt ledsen, men detta var ingen gissning. :)
Från och med F/11 så ser man effekten på en 50D. F/11 kräver mer förskärpning än vad F/5.6-F/8 med ett bra objektiv gör. F/16 på en 50D gör att man måste skärpa ganska mycket mer än på F/5.6-F/8. Skärpedjupet blir större, men allt som var skarpt innan - blev helt plötsligt lite suddigare.

Effekten är inte något man ens behöver tänka på om man inte ska använda bilderna i fullupplösning, eller ska skriva ut fullupplösning i 200DPI eller lägre (1m stora bilder).

Om man nu inte behöver eller vill det, ja då förstår jag inte meningen med kamera öht. Om inte AF är revolutionerande steg bättre (vilket jag iofs tror att den är).
 
Jag räknar inte riktigt som DSPographer, som för övrigt har mycket vettigt att säga - om man har vett att sortera det. Här har han dock vänt lite på siffrorna... För att nyquist ska ha en chans att arbeta ska man dubbla mängden samples, inte halvera dem som han gör. Och det är dessutom onödigt... :)

.....

Det enda som skiljer er åt är faktorn 1,22 och 1,22/2. I övrigt blir din pitch * (filtren) i stort sett lika med diagonalen på pixeln så de tar ut varandra.

Vilken dubblering pratar du om?

Kan du utveckla dina tankar lite?
 
På DET finns det nog ingen anledning att tvivla, rent teoretiskt verkar det som om de gjort allt rätt. Typ.
Sen får vi se hur den rent mekaniska biten av det håller ihop, dvs monteringstoleranser och tillverkningsavvikelser.

Det finns en svaghet i att bara ha sensorer i EN riktning - nu är alla kors. Tyvärr bara en F/2.8 - den i mitten - men den är också F/2.8 på båda hållen. Plus i kanten. Nikon har använt sin matrix i exponeringsmätningen som "bild" för att styra följande AF (vilket punkt eller vilket punkt-kluster som är "valt") sedan länge, nu har Canon den funktionen också. Med betydligt färre sensorer, men iaf.

Ang. diffraktionen:
Han menar Rayliegh, använt för "urskiljning av två linjer". För att skilja två linjer måste man naturligtvis ha en linje imellan av brytande färg/ljushet... :)
Jag menar Rayleigh som "diffraktionscirkeln är så stor att den menligt stör omkringliggande pixlar" - den går nämligen att använda så också. Vi kommer fram till samma resultat - han räknar ett linjepar, jag räknar på när suddigheten på en kant blir "synligt störande" på pixelnivå. Jag har en gammal graf jag använt tidigare - utan faktorn för förluster i AA och färgfilter.
 

Bilagor

  • DiffractionPerFormat.gif
    DiffractionPerFormat.gif
    20 KB · Visningar: 917
ANNONS
Upp till 6000:- Cashback på Sony-prylar