Citat:
|
Debatten om scraping är jäkligt intressant. Är ju lite tjatigt att ta som exempel kanske men ändå: Google är ju världens största scraper. De livnär sig till 100% på att presentera världens alla webbplatser och dess innehåll i kommersiellt syfte.
Är det någon skillnad på att låta en dator samla in samma information som går att samla in manuellt? Går i sådant fall gränsen i automatiseringen? Tel. nr och den typen av uppgifter är ju faktiskt ingen som kan sätta (c) på. |
Citat:
Jämför att använda tiotusentals ip adresser där en ip adress, en tid väljs med en pseudoslumptalsgenerator som inte söker igenom en sida på ett sekventiellt sätt med en människa som sitter på en fast ip adress och går igenom sida för sida sekventiellt. En är väldigt ineffektiv och väldigt enkel att blocka. En är så gott som omöjlig att blocka och läskigt effektiv. |
Katalogskyddet borde vara ganska lätt att hävda i en rättsprocess för ägaren. Skraparen ligger rätt illa till.
|
Citat:
Citat:
Om någon kopierar mitt arbete lika uppenbart som i detta fallet så är det ju en sak men om det hela görs manuellt? Vad gäller då? Jag kan omöjligt bevisa någonting alls förutom att de har samma data. |
Citat:
|
Citat:
|
Här är ett aktuellt svenskt fall om katalogskydd:
http://www.wn.se/showthread.php?t=29066 Lazyman här på WN skriver: Citat:
|
Citat:
|
Frågan är om du överhuvud taget är något fel att ta informationen om den inte publiceras efteråt.
Sedan så är det väl inte olagligt med DDOS-attacker i Sverige? Har för mig att jag läste att det var "lagligt". |
Alla tider är GMT +2. Klockan är nu 06:34. |
Programvara från: vBulletin® Version 3.8.2
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Svensk översättning av: Anders Pettersson