Jag halkar tillbaka till diskussionen om skärpedjup.
Jag tror att det är bra att ha klart för sig att det finns två väsensskilda egenskaper som berörs när man talar om skärpedjup. Den ena är området inom vilket vi godtar att objektet som är avbildat återges skarpt, och den andra är hur oskärpan renderas, boké, och i samband med den senare också avbildningsskalan hos det som renderas oskarpt.
Det är särskilt tydligt när man tar närbilder där ett relativt litet föremål avbildas skarpt, helst i hela djupet genom föremålet, och där omgivningen renderas mycket oskarpt, på grund av dess relativt stora avstånd från det skarpa området. Det är mycket lätt att se på bilder som tas med optik som har god boké, ett bra exempel är bilden i tråden
(M) Kritik - Lila Blomma på Foto i Fokus.
Det sättet att uppleva skärpedjup, som vi ser i bilden, kan vi inte uppleva direkt med synen. Till en del beror det så klart på att det är ganska stor skillnad i öppning mellan ögats pupill och ingångspupillen på ett objektiv vid 200 mm f/6,3, men synens funktion är också mycket annorlunda än kamerans, så att även när man koncentrerar sig på ett litet objekt på relativt nära håll, suddas inte bakgrunden ut så som när man tar en bild med en kamera. Jag hävdar fortfarande ganska bestämt att vi inte kan uppleva "kort skärpedjup" med synen, så som man kan göra i fotografier.
Renderingen av bakgrundsoskärpa är vad man kan kontrollera i sökaren om man har en bra sökarskiva eller elektronisk sökare. Den andra aspekten, omfattningen av det skarpa området (det som kallas skärpedjup och som man kan räkna ut via formler), kan man inte avgöra i en optisk sökare, och det är svårt att utvärdera den i en elektronisk sökare eller på skärmen efter att bilden är tagen.