Några av oss menade också att det är skillnad på vad som nominellt försvann och vad man reellt kan återfå vid en dekomprimering och rendering av dekomprimerat data. En komprimeringsalgoritm är väl smartare än att den bara lagrar de pixlar som blev kvar d.v.s. dessa 20% det pratas om som utgångspunktl. Vid dekomprimering får man alltså tillbaka mer än de 20 % data som man rent fysisk fick kvar eftersom komprimeringen, som alltså är lite smartare än ren bitmaplagring. Så vi är inte ens överens om det.
Det som försvinner är ju inte pixlar, utan informationen i pixlarna. Redan INNAN vi börjar lägga till förluster av tonkomprimeringar, kurvor, färgöversättningar, skärpning, brusreducering osv, osv så är ca 90% av tonupplösningen borta ur filen. Ca 80% av detta är "relevant", dvs att det fanns någon vettig information att läsa ur den från början.
Är du nöjd med jpg-bilden som den är, ja då finns det inga problem. Den räcker (om den är i tillräckligt hög kvalitet, låg komprimering) till det allra mesta en normal konsument skulle kunna tänka sig att göra med den. Den räcker mycket längre än vad de allra bästa skrivarna vi skulle kunna fantisera om skulle kunna klara under överskådlig framtid, om de bara hanteras rätt och är gjorda rätt. Problemen, och de additiva förlusterna uppstår när du försöker ÄNDRA något i jpg-filen, eller om det intressanta du vill åt inte ligger "rätt exponerat" eller "rätt vitbalanserat" i bilden.
Rent optimalt skulle man kunna säga att den allra bästa digitalkameran idag skulle kunna behöva en tonupplösning på ca 1/50 Ev - för att dra ut den information som varje pixel från kameran i råfilen är mäktig att tillhandahålla. Detta ger ca 6-700 enskilt urskiljbara tonsteg från svart (noll) till vitt (max) som filen skulle behöva "beskriva".
10 bitars djup, i gamma 1.4 skulle klara detta ganska lätt. 13 linjära bitar (gamma 1, som i råfilen) gör det också. 8 bitar i gamma 2.2 klarar bara detta krav i ett litet, smalt område nere runt minus 9-10 Ev, dvs de djupare skuggorna precis innan svart. I resten av tonomfånget delar jpg-filen upp den datamängd som är relevant i större "stycken", kvantiserade omfång. I de översta delarna av histogrammet går det ca 30-50 st relevanta tonsteg
per steg i jpg-filen.
Detta är inget man kan "de-komprimera", denna information är cullad. Bortslängd. Omöjlig att återskapa, även med NASA's eller underättelsetjänsternas bästa tekniker.
Lägg sedan till en ytterligare faktor 2 för kurvor, färgomvandlingar osv, så går det ca 50-70 tonsteg per steg i jpg-filen i de översta bitarna (ca bit 180-240 av 255). Nere i skuggorna går det mycket bättre, eftersom de kurvor vi normalt sett använder hjälper till att begränsa den tonupplösning som behövs - här sparar jpg-filen ca två relevanta tonsteg per bit-steg i filen - och detta täcks till större delen av brus så det är ingen större förlust.
Men då har vi inte lagt till effekterna av den spatiella kompressionen och konversionen RGB>YCbCr än.
Tyvärr tar jpg-kompressionen (som är DCT-baserad, och alltså tar bort högfrekvensinformation och ersätter den med "egna", förhoppningsvis liknande men mer lättkomprimerade mönster) bort all brusinformation som man hade behövt för att återskapa tonomfånget i skuggorna också...
Och färgtonsupplösningen orkar jag inte gå in på just nu, inlägget är långt nog som det är. Men det är nog snarare 90 än 80% av informationen som försvinner vid en jpg-komprimering jmf råfil. Och vill man se till långtidslagringen finns ju faktiskt DNG, som är en icke-förstörande (ingen informationsförlust alls) omskrivning av råfilen till ett helt öppet format, som arbetar och sparar helt enligt TIFF-EPv6 och EXIF specifikationer, i en öppen, standardiserad lossless-jpg-komprimering.
En DNG har EXAKT samma tidsbeständighet som en tiff. De följer samma fil-konventioner - men DNG-filen innehåller fler, och för formatet (råfil) nödvändiga EXIF-taggar. En TIFF-läsare SKULLE kunna läsa en DNG-fil - naturligtvis utan ifärginterpolering då - och visa de rena råfilsdata som är lagrade som en icke färgkorrigerad halvstorleksbild.