Annons

Googles bildsök och IPTC för den intresserade

Produkter
(logga in för att koppla)

PeterWem

Aktiv medlem
Google jobbar på (beta) att synliggöra vilken licens en bild har och vart man som bildsökare kan vända sig för att licensiera om så önskas. Redan nu visar Google vid bildsökning IPTC-fälten Creator, Credit och Copyright.

Vad som är på gång är alltså licensdelen, men i betastadie, där fälten Web Statement of Rights och Licensor URL kan användas. Web Statement of Rights ska vara en URL som pekar mot vilken licens en bild har medan Licensor URL kan vara en URL till vart man kan vända sig för att köpa en licens.

IPTC har en guide för vilka fält som ska användas och IPTC har en testbild där man kan jämföra dess metadata med sin egna bilds metadata.

Vilka fördelar finns med att fylla i dessa fält? Man kan åtminstone hoppas på att Google höjer upp ens bilder bland dess bildsök, men framför allt blir det tydligt vart en potentiell köpare kan vända sig när bilden inte ligger på ens egna hemsida.

Program för att ändra IPTC-fält? År 2020 är det kanske tvärtom lättare att skriva vilka fotoprogram som inte klarar det. Canon Digital Photo Professional 4 är ett som enbart kan läsa IPTC men inte ändra.
 

Bilagor

  • bildrattigheter.jpg
    bildrattigheter.jpg
    291.8 KB · Visningar: 30
Senast ändrad:

Bilagor

  • bildbrander.png
    bildbrander.png
    453.1 KB · Visningar: 24
Senast ändrad:
Håller Google på att uppfinna något eget nu?

Adobe har ju tagit fram XMP som nu är en W3C-standard som bl.a är standard i de flesta DAM-system idag. XMP innehåller namnrymder för bl.a Dublin Core, ITPC, EXIF, Photoshop m.m. Dessutom kan varje användande organisation skapa sina egna dataelement och man kan lokalt välja de element man finner bäst.

Dublin Core som kommer från den världsomspännande bibliteksvärlden är den verkliga standarden idag för exv. all världens bibliotek och officiella institutioner samt världens minnesinstitutioner som museerna. Det är på den standarden den s.k. semantiska webben är tänkt att byggas även om det verkar ta längre tid att få till på bred front än man önskat. Tanken med denna teknik är att en sökning i ett system automatiskt ska kunna ge tips på material på anda siter som matchar samma sökning. På det sättet kan man snabbt och effektivt nå länkar till ett bredare och djupare material om man är intresserad av det.

Det är viktigt att hålla sig till standardelementen för de man hittar på själva kommer bara synas i lokala system som har dessa i sina datascheman. Det är exv. ingen tillfällighet att de fält som syns under "Egenskaper" och "Information" i Windows filhantarare syns där. Bakom dessa ligger en konsekvent användning av dessa standardfält/element. Det här är även viktigt vid bildöverföringar mellan exv. De olika Raw-konvertrrare man har. Man ska inte bli förvånad om vissa av ens metadata saknas efter en konvertering och systembyte.

När det gäller licenssystem för bilder finns sedan länge Creative Commons. Även dessa används sedan länge av minnesinstitutionerna. Det står var och en fritt att använda dessa licenskoder om man vill. Söker ni på detta begrepp så hittar ni förklaringar till de olika licenstyperna. Det här borde väl nästan vara allmän kunskap idag för de som exponerar eller konsumerar bilder på nätet idag.
 
Senast ändrad:
Den semantiska webben blir nog akterseglad av bättre språkförståelse hos AI.

Om Google håller på att uppfinna något eget vet jag inte riktigt, men Google håller ju på med allt möjligt.

I det här fallet handlar det dock bara om att vissa IPTC-metadata visas i direkt anslutning till en bild när man har sökt efter bilder med Google.
 
Den semantiska webben blir nog akterseglad av bättre språkförståelse hos AI.

Om Google håller på att uppfinna något eget vet jag inte riktigt, men Google håller ju på med allt möjligt.

I det här fallet handlar det dock bara om att vissa IPTC-metadata visas i direkt anslutning till en bild när man har sökt efter bilder med Google.

Kanske det, vi får väl se men så länge tid är pengar så kommer strukturering av data att vara viktig och det är väl därför både biblioteken och utvecklarna av s.k. DAM-system tycker att Dublin Core är grundbulten och taxonomier/taxonomies är viktiga både för strukturering och navigering och samarbete mellan både människa och maskiner. Jag skulle bli förvånad om Google helt kan runda XMP, Dublin Core och ITPC ingår ju båda som delmängder i XMP och det är och kommer vara basen i många av världens kunskapssystem under överskådlig tid.

Det här med bildrättigheter verkar f.ö. vara ett evigt härke för många.
Jag vet inte hur många möten jag själv medverkat i och hur många timmar jag lagt på kravspecdiskussiner kring detta inför DAM-tillämpningsdesign. Det var väl därför det förenklande Creative Commons togs fram och har vunnnit en hel del acceptans hos många - inte minst minnesinstitutionerna. Även Europeana som är ett EU-initiativ använder CC för historiska bilder från hela EU. Jag byggde själv Stadsmuseets tillämpning för hantering av CC-koderna i Stockholms Digitala Stadsmuseum. Alla museets bilder ska idag vara örsedda med CC-koder i likhet med många andra museer.

Jag har lyft Googles hantering av våra bilder här på FS men inte mött någon vidare respons. Uppenbarligen hittar Google bilder i våra bloggar redan men däremot verkar alla portfoliobilder ligga i Google-skugga. Jag tror det kan ha ett värde att de inte gör det. När våra album- och portfoliobilder blir exponerade så kanske det kunde vara en ide att även märka dem med CC-licenskoder.
 
Senast ändrad:
Håller Google på att uppfinna något eget nu?

Adobe har ju tagit fram XMP som nu är en W3C-standard som bl.a är standard i de flesta DAM-system idag. XMP innehåller namnrymder för bl.a Dublin Core, ITPC, EXIF, Photoshop m.m. Dessutom kan varje användande organisation skapa sina egna dataelement och man kan lokalt välja de element man finner bäst.

Dublin Core som kommer från den världsomspännande bibliteksvärlden är den verkliga standarden idag för exv. all världens bibliotek och officiella institutioner samt världens minnesinstitutioner som museerna. Det är på den standarden den s.k. semantiska webben är tänkt att byggas även om det verkar ta längre tid att få till på bred front än man önskat. Tanken med denna teknik är att en sökning i ett system automatiskt ska kunna ge tips på material på anda siter som matchar samma sökning. På det sättet kan man snabbt och effektivt nå länkar till ett bredare och djupare material om man är intresserad av det.

Det är viktigt att hålla sig till standardelementen för de man hittar på själva kommer bara synas i lokala system som har dessa i sina datascheman. Det är exv. ingen tillfällighet att de fält som syns under "Egenskaper" och "Information" i Windows filhantarare syns där. Bakom dessa ligger en konsekvent användning av dessa standardfält/element. Det här är även viktigt vid bildöverföringar mellan exv. De olika Raw-konvertrrare man har. Man ska inte bli förvånad om vissa av ens metadata saknas efter en konvertering och systembyte.

När det gäller licenssystem för bilder finns sedan länge Creative Commons. Även dessa används sedan länge av minnesinstitutionerna. Det står var och en fritt att använda dessa licenskoder om man vill. Söker ni på detta begrepp så hittar ni förklaringar till de olika licenstyperna. Det här borde väl nästan vara allmän kunskap idag för de som exponerar eller konsumerar bilder på nätet idag.
Web statement of rights använder taggen xmpRights:WebStatement
 
Web statement of rights använder taggen xmpRights:WebStatement
Web statement of rights använder taggen xmpRights:WebStatement

Sen beror det ju på vad folk lägger i fälten. Fotosidan har redan anpassat sig till Creative Commons. CC-licenserna ligger där som möjliga val när man går in på enskild bild men "All rights reserved" är default och det är väl helt i sin ordning på en site för fotografer. Ibland vill dock fotografen kanske bjuda på generösare villkor. Det kan dock vara bra att tänka igenom sina val för man kan inte inskränka dem i efterhand när de väl publicerats.

Här kan man läsa om CC-koderna och vad som gäller för dem på svenska.


Historiskt är det dock inte ovanligt att metadata ligger i exv. äldre SQL-databassystem där det kan stå precis vad som helst i dessa rättighetsfält. Det är inte ens säkert att det som står där är uppdaterat och relevant. Som bekant har upphovsrätten bäst före datum och löper ut efter viss tid.

I denna tid där bilder flyter omkring okontrollerat på nätet, så är risken överhängande att rättigheter inte respekteras om de inte är definierade i det XMP-metadata som är inbakat i de bildfilsformat som är XMP-kompatibla, såsom JPEG, DNG och TIFF. För dokument gäller PDF. Så det är ju bra att Google verkar läsa XMP. Om filformaten inte är XMP-kompatibla som exv RAW-formaten eller exv. vanliga Office-dokument, så läggs metadata i en sidecar.xmp-fil med samma namn som datafilen. Problemet med dessa är att det inte finns någon som hårt binder dem till datafilerna. Professionella DAM-system sköter detta transparent men vid all annan hantering är risken stor att .xmp-filerna försvinner och med dem metadatat.
 
Senast ändrad:
ANNONS
Upp till 6000:- Cashback på Sony-prylar