ANNONS
Annons

Djupinlänkning och sökmotorer - otillåten publicering?

Produkter
(logga in för att koppla)
Hur svårt är det att hämta hela siten och sitta hemma och bläddra i lugn och ro? Om man har gått om disk och vågar chansa lite så använder man kommandot wget på topp- url:en och ger oändligt rekursive-argumet. Då rasslar hela webbplatsen ner till hårddisken och man kan sen i lugn och ro sitta och bläddra efter både bilder och resultaträkning. Verkar funka även om directory browsing är avslaget. Gjorde det på en site som jag misstänkte hade mina bilder, och mycket riktigt, inte bara mina utan mycket mer än jag kunde föreställa mig.
 
Hur svårt är det att hämta hela siten och sitta hemma och bläddra i lugn och ro? Om man har gått om disk och vågar chansa lite så använder man kommandot wget på topp- url:en och ger oändligt rekursive-argumet. Då rasslar hela webbplatsen ner till hårddisken och man kan sen i lugn och ro sitta och bläddra efter både bilder och resultaträkning. Verkar funka även om directory browsing är avslaget. Gjorde det på en site som jag misstänkte hade mina bilder, och mycket riktigt, inte bara mina utan mycket mer än jag kunde föreställa mig.

Jag hade lovat mig själv att inte skriva mer här, men.....

Det där ger dig väl bara en kopia på den officiella sajten, d.v.s. allt som finns länkat? Om inte, hur hittar isåfall wget alla okända och olänkade filer och mappar?

Alltså: det är ju skillnad på:
- den officiella sajten
- allt innehåll på serverns hårddisk nåbar via htp
 
Det krävs ett uppsåt.

Där håller jag med.
Om man går bara på uppsåt så har man en skillnad mellan samma sak.
(jag vänder mig bara mot folk som inte är tekniskt insatta och hävdar att det skulle vara någon 'partiskt/teknisk' skillnad)

Att en sökmotor har ett annat uppsåt kan argumenteras. (tydligen framgångsrikt eftersom ingen här verkar skicka fakturor till dem)

Men i slutändan publiceras bilder i sökningen för att sökmotorn ska kunna sälja reklam, etc...
 
Där håller jag med.
Om man går bara på uppsåt så har man en skillnad mellan samma sak.
(jag vänder mig bara mot folk som inte är tekniskt insatta och hävdar att det skulle vara någon 'partiskt/teknisk' skillnad)

Att en sökmotor har ett annat uppsåt kan argumenteras. (tydligen framgångsrikt eftersom ingen här verkar skicka fakturor till dem)

Men i slutändan publiceras bilder i sökningen för att sökmotorn ska kunna sälja reklam, etc...

När du skriver att den ena åsikten bygger på att man inte är tekniskt insatt så tycker jag det är ovärdig argumentation.

Och när det gäller din sista mening gör jag följande reflektion:

Tror du att det är många som hör av sig till Google och säger "Jag vill gärna vara med i ert sökindex men ni måste betala för de bilder ni indexerar från min webbplats"?
 
När du skriver att den ena åsikten bygger på att man inte är tekniskt insatt så tycker jag det är ovärdig argumentation.

Dum liknelse:
Jag säger att en bilen kör 150 km/h oavsett om det är en polisbil eller inte.
'Andra' sidan säger eftersom det är en polisbil får den kör hur snabb den vill.
Men typen av bil påverkar inte hastigheten, den kör i 150 km/h även fast den får det.

Alltså, jag skickar samma html kod till din webbläsare som google gör (i mitt hypotetiska fall).
Och om google kallar sig sökmotor eller inte har inte med det att göra.

Och när det gäller din sista mening gör jag följande reflektion:

Tror du att det är många som hör av sig till Google och säger "Jag vill gärna vara med i ert sökindex men ni måste betala för de bilder ni indexerar från min webbplats"?

Om alla gjorde det skulle ni/vi få betalt för bilder eftersom någon skulle vilja skapa sökningstjänst för dem.
Nu kan du ju visserligen ha en robot.txt som berättar vad roboten får indexera.
Fast bygger ju på att de får indexera om du inte säger något annat.

Skulle vara roligt om upphovsrätten byggde på samma princip.
 
Hur svårt är det att hämta hela siten och sitta hemma och bläddra i lugn och ro? Om man har gått om disk och vågar chansa lite så använder man kommandot wget på topp- url:en och ger oändligt rekursive-argumet. Då rasslar hela webbplatsen ner till hårddisken och man kan sen i lugn och ro sitta och bläddra efter både bilder och resultaträkning. Verkar funka även om directory browsing är avslaget. Gjorde det på en site som jag misstänkte hade mina bilder, och mycket riktigt, inte bara mina utan mycket mer än jag kunde föreställa mig.

nje, så fungerar det inte.
wget tar ner allt som finns länkar in till som den kan sniffa upp.
bilder / undersidor / stilmallar / dokument etc.
men aldrig nått som inte fysiskt går att klicka sig till..
då måste du ha en behörig ftp användare att gå in för hela "trädet".

ligger nått ute för publik ingång, så är det svårt hävda att jag inte hade access dit.
loggar man in via namn/lösenord så är man medveten om intrånget och kan räkna med problem.
mina 2 cent..
 
Dum liknelse:
Jag säger att en bilen kör 150 km/h oavsett om det är en polisbil eller inte.
'Andra' sidan säger eftersom det är en polisbil får den kör hur snabb den vill.
Men typen av bil påverkar inte hastigheten, den kör i 150 km/h även fast den får det.

Alltså, jag skickar samma html kod till din webbläsare som google gör (i mitt hypotetiska fall).
Och om google kallar sig sökmotor eller inte har inte med det att göra.

Detta kan diskuteras i evighet. Jag delar inte din uppfattning - och det har ingenting med teknisk okunskap att göra. En sökmotor är en sökmotor. En hemsida där man aktivt länkat in innehåll tillsammans med egenproducerat innehåll är något helt annat. Men detta har jag upprepat till leda i den här tråden, och när motargumentet är att jag inte är tekniskt kunnig känns vidare diskussion meningslös.


Om alla gjorde det skulle ni/vi få betalt för bilder eftersom någon skulle vilja skapa sökningstjänst för dem.
Nu kan du ju visserligen ha en robot.txt som berättar vad roboten får indexera.
Fast bygger ju på att de får indexera om du inte säger något annat.

Skulle vara roligt om upphovsrätten byggde på samma princip.

Då tycker jag att du ska prova att starta den tjänsten. Jag kommer inte att ställa upp med riskkapital. :)

Jag tror ju nämligen att det är en försvinnande liten minoritet som inte vill att det innehåll man publicerat ska indexeras så att intresserade hittar det. De ser också den givna (för de flesta) skillnaden mellan en sökmotor och en "vanlig" hemsida.
 
Att en sökmotor indexerar material är i min värld en del av Internet som funnits där sedan starten. Lite som att man vet att man kommer att hamna i telefonkatalogen om man skaffar telefon (och inte väljer att säga till, precis som med en sökmotor) eller att man kommer att hamna i fotokatalogen i skolan om man går i en sådan.

Ibland uppkommer diskussioner som tyder på att den ena parten i någon form av tvist helt har missat poängen med att välja att publicera information på ett världsomspännande, hyperlänkat nätverk. I takt med att Internet används till mer och mer är det förstås så att det ursprungliga syftet kan naggas i kanten, men den promille av alla websidesägare som inte vill ha sitt material indexerat och publicerat av en sökmotor har nog missförstått vitsen med "world wide web" och borde söka sig till alternativa IT-lösningar...
 
Fast så är det ju inte. Sökmotorer är ett ganska sentida påfund i Internets historia, även om de har funnits i ganska många år vid det här laget.

Det beror väl på hur man tolkar internets "tidslinje". Om man tolkar den strikt linjärt håller jag med, men gissningsvis var sökmotorerna standard innan den första tiondels promillen av den mängd material som finns idag var på plats. Poängen är att 99,99% av allt material är upplagt efter det att sökmotorerna blev en naturlig del av internet...
 
1995 hade 5% av Sveriges befolkning tillgång till internet. Då fanns sökmotorer.

De kom 1994 och samtidigt med webcrawler kom robots.txt som gör det möjligt att styra om innehållet skall indexeras.

Det enda problemet med detta är att det inte är "opt in" utan "opt out" stämmer inte överens med svensk lagstiftning.

Att sökmotorerna jobbar på det här sättet får man helt enkelt acceptera om man ska använda internet.

Det är lite som att tycka det är märkligt att sprit är en laglig drog. Den hade aldrig blivit laglig om den kom idag men av historiska skäl kommer den mest troligt alltid förbli laglig.
 
De kom 1994 och samtidigt med webcrawler kom robots.txt som gör det möjligt att styra om innehållet skall indexeras.

Det enda problemet med detta är att det inte är "opt in" utan "opt out" stämmer inte överens med svensk lagstiftning.

Att sökmotorerna jobbar på det här sättet får man helt enkelt acceptera om man ska använda internet.

Det är lite som att tycka det är märkligt att sprit är en laglig drog. Den hade aldrig blivit laglig om den kom idag men av historiska skäl kommer den mest troligt alltid förbli laglig.

Jag är dock fullständigt övertygad om att sökmotorer skulle blivit lika tillåtna om de kommit idag.

En grov uppskattning är att 99% av alla som publicerar på internet är tacksamma för att de inte måste anmäla sina sidor till alla sökmotorer. Jag har också oerhört svårt att se hur den lag du hänvisar till är tillämplig i det här fallet. Vilken paragraf tänker du på?
 
Fast så är det ju inte. Sökmotorer är ett ganska sentida påfund i Internets historia, även om de har funnits i ganska många år vid det här laget.

Jo, men sedan http kom har sökmotorerna funnits och det fanns även innan på vissa av dom andra teknikerna. 1994 så var dock internet väldigt litet och det var mest anpassat för datornördar som mig själv.

Google är ganska ny, men innan dom fanns ju Yahoo, innan dess var det Altavista och när jag började surfa 1994 så var det lycos som gällde. Dom var dock inte först, men jag kommer inte ihåg vad föregångaren hette.

/Karl
 
Jo, men sedan http kom har sökmotorerna funnits och det fanns även innan på vissa av dom andra teknikerna. 1994 så var dock internet väldigt litet och det var mest anpassat för datornördar som mig själv.

Google är ganska ny, men innan dom fanns ju Yahoo, innan dess var det Altavista och när jag började surfa 1994 så var det lycos som gällde. Dom var dock inte först, men jag kommer inte ihåg vad föregångaren hette.

/Karl

google search lanserades 1997...menar du att nåt som lanserades 97 är "ganska nytt" jämfört med nåt som kom 1994? :D
 
google search lanserades 1997...menar du att nåt som lanserades 97 är "ganska nytt" jämfört med nåt som kom 1994? :D

Jo, men dom var väldigt små i alla fall fram till en bit in på 2000-talet. Så googles tid har varit mindre än dom senaste 10 åren och internet har ju i alla fall funnits 20 år.

/Karl
 
Jag är dock fullständigt övertygad om att sökmotorer skulle blivit lika tillåtna om de kommit idag.

En grov uppskattning är att 99% av alla som publicerar på internet är tacksamma för att de inte måste anmäla sina sidor till alla sökmotorer. Jag har också oerhört svårt att se hur den lag du hänvisar till är tillämplig i det här fallet. Vilken paragraf tänker du på?

Absolut skulle de bli tillåtna, kanske skulle det inte vara "opt out" utan "opt in" som gällde. Då skulle inget snack liknande det som pågår i denna tråd existera :)
 
Jag är dock fullständigt övertygad om att sökmotorer skulle blivit lika tillåtna om de kommit idag.
Kanske, kanske inte. Vad baserar du din övertygelse på?

En grov uppskattning är att 99% av alla som publicerar på internet är tacksamma för att de inte måste anmäla sina sidor till alla sökmotorer.
Ja, det tror jag också. Det är väl därför som Google så sällan blir stämt för upphovsrättsbrott.

Men att många accepterar en lagöverträdelse och t.o.m. tycker att den är nyttig gör ju inte lagöverträdelsen till en laglig handling.

Jag har också oerhört svårt att se hur den lag du hänvisar till är tillämplig i det här fallet. Vilken paragraf tänker du på?

Det torde väl vara upphovsrättslagen?
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar