Såhär tänker jag: En (fiktiv) bildskärm som är 16 tum bred och 9 tum hög (notera att man normalt anger bildskärmars diagonala mått) och som är på 1920x1080 pixlar har således 120 PPI upplösning både på höjden och bredden. Den klarar alltså (teoretiskt iaf) av att tecka 60 linjer (där mellanrummen mellan linjerna är lika breda som linjerna) per tum. Så bildskärmens upplösning är alltså 120 PPI.
Datat i bilden som visas på bildskärmen kan ha lägre, eller högre, upplösning. Vilken upplösning bilden har beror dels på sensorns fysiska upplösning (d.v.s. hur många pixlar den registrerar på höjden och bredden), men även på optikens förmåga att teckna detaljer. Om vi för resonemangets skull tänker oss en gigantisk sensor som är exakt lika stor som skärmen, d.v.s. 16 tum bred och 9 tum hög, och som har lika många pixlar som bildskärmen, d.v.s. 1920x1080, och vi fotograferar av ett linjemönster som vid den aktuella avbildningsskalan ska teckna 60 linjer per tum, så ska varannan pixelrad (eller kolumn) vara en linje, och varannan mellanrummet mellan två linjer. Men om optiken är för oskarp för att teckna 60 linjer per tum, så kommer bildens data ha en faktisk upplösning som är lägre än bildskärmens.
Eller som en gammal lärare i ellära sa, när han jämförde analoga (med visare) och digitala multimetrar: Den digitala multimetern visar bara fel med högre precision.
Vi pratar alltså egentligen om tre olika upplösningar: Bildens upplösning, bildfilens upplösning (eller pixeldimensioner om man så vill) samt bildskärmens upplösning.