WN

WN (https://www.wn.se/forum/index.php)
-   Nyheter (https://www.wn.se/forum/forumdisplay.php?f=3)
-   -   Företaget Netix stäms pga scraping (https://www.wn.se/forum/showthread.php?t=1041017)

JLE 2010-03-17 13:28

Företaget Netix stäms pga scraping
 
Såg just på NSD.se att företaget Netix i Luleå stäms av 118 700 Webb och Telefon AB. De har utfört scraping verkar det som:

"Malmöföretaget hävdar att männen bakom Netix, den 16 april 2009, genom en fjärrstyrd automatisk process systematisk har sökt och kopierat adress- och telefonuppgifter i databasen.

Teknikerna på 118 700, Webb och telefon AB försökte flera gånger avbryta processen men den startade automatiskt och det gick snabbt, 25 poster var tredje sekund kopierades.

Stölden kunde spåras till ett IP-nummer tillhörande Netix. Först när detta IP-nummer spärrades upphörde kopieringen, enligt stämningsansökan. Då hade väsentliga delar av alla uppgifter i databasen kopierats."

Källa: http://www.nsd.se//nyheter/artikel.a...icleId=5242728

tartareandesire 2010-03-17 14:58

Jag är principiellt emot stöld men det är väldigt svårt med så pass generella uppgifter som adresser och telefonnummer. Det är egentligen ingen skillnad att göra kopieringen manuellt och då hade det inte funnits några som helst bevis. Däremot är jag ganska övertygad om att Netix ljuger rakt ut. Verkar vara ganska klantiga "tekniker" på 118700 också :)

jonny 2010-03-17 16:07

Journalistens beskrivning lämnar ju en del att önska avseende hur det egentligen har gått till.

Jag tycker också det verkar lite osannolikt att man ska få ersättning för att någon utnyttjat en gratistjänst.

Så länge de inte startar upp en tjänst baserat på den scrapade databasen vore det ju underligt om det här ledde någonstans alls.

Draqir 2010-03-17 21:20

Komiskt. Ett företag som använder sitt företags IP för att rippa en databas och ett annat företag som försöker stoppa dem "ett flertal gånger" och lyckas först med något så enkelt som en IP ban (vilket inte direkt tar särskilt många sekunder att ta sig runt om man vill). Efter det stämmer det företaget som tillhandahåller gratistjänsten för databas intrång (vilket egentligen är något helt annat). Jadu.

JLE 2010-03-17 21:32

Påminner inte hela historien lite om Blocket vs. AllaAnnonser?

Vad hände där eg, fick någon rätt?

patrikweb 2010-03-17 22:03

Om inte massa gratis reklam, stämma kan man ju alltid göra sedan hur långt det leder är ju annan sak.

Många stämmer ju endast för skrämma andra part inte att dom har så mycket att vinna med.

KristianE 2010-03-17 22:43

Vad är 118700 för nåt? Har de något man ens vill ha?..

objx 2010-03-17 23:44

Jadu, acceptansen här på wn.se verkar oväntat hög.
Själv skulle jag bli rätt störd om någon gjorde ett par tusen http-requests varje minut för att läsa av innehållet på min sida.
Prestandamässigt så måste det ju bli en rätt rejäl dipp för övriga besökare som försöker använda hemsidan som vanligt.

Det går väl inte att försvara det hela med att säga "Vi använder inte uppgifterna i kommersiellt syfte"?

Aja, kom med några kloka ord. Någon jurist är jag då inte.

Draqir 2010-03-18 00:21

Citat:

Ursprungligen postat av objx (Inlägg 20346876)
Jadu, acceptansen här på wn.se verkar oväntat hög.
Själv skulle jag bli rätt störd om någon gjorde ett par tusen http-requests varje minut för att läsa av innehållet på min sida.
Prestandamässigt så måste det ju bli en rätt rejäl dipp för övriga besökare som försöker använda hemsidan som vanligt.

Det går väl inte att försvara det hela med att säga "Vi använder inte uppgifterna i kommersiellt syfte"?

Aja, kom med några kloka ord. Någon jurist är jag då inte.

Det rörde sig om 20 requests/minut och om samma attack skulle gjorts i dagsläget skulle det kräva 50 requests / minut och inte ett par tusen.

Bjorne 2010-03-18 01:23

Pinsamt klantiga tekniker som inte lyckades svartlista crawlerns ip. Vill man inte få sina sidor scrapade finns det system för att enkelt undvika det. Samma sak med hotlinking som en del andra idioter gnäller över. Dessutom är data i en databas som man lagt upp för allmän beskådan på internet ingenting som någon annan kan stjäla! Jävla idioter.

Draqir 2010-03-18 11:55

Citat:

Ursprungligen postat av Bjorne (Inlägg 20346884)
Vill man inte få sina sidor scrapade finns det system för att enkelt undvika det.

Nej, du kan inte enkelt undvika alla möjliga scraping attacker genom enkla system av anti-proxy eller ännu enklare ip-banns vid ett visst antal requests och så vidare. Visst du kan lägga in Asirra eller någon mycket jobbigare kontroll än reCaptcha, eller något som kan brytas av anti-captcha algoritmer för att visa varje sida, varje gång den anropas, sådant skulle försena scraping en hel del och givetvis göra sidan den mest jobbiga i världen. Men du kan aldrig, om du har en publik sida undvika att informationen stjäls.

Aron L 2010-03-18 12:05

Debatten om scraping är jäkligt intressant. Är ju lite tjatigt att ta som exempel kanske men ändå: Google är ju världens största scraper. De livnär sig till 100% på att presentera världens alla webbplatser och dess innehåll i kommersiellt syfte.

Är det någon skillnad på att låta en dator samla in samma information som går att samla in manuellt? Går i sådant fall gränsen i automatiseringen? Tel. nr och den typen av uppgifter är ju faktiskt ingen som kan sätta (c) på.

Draqir 2010-03-18 12:35

Citat:

Ursprungligen postat av Aron L (Inlägg 20346920)
[..]De livnär sig till 100% på att presentera världens alla webbplatser och dess innehåll i kommersiellt syfte.[..]

Är det någon skillnad på att låta en dator samla in samma information som går att samla in manuellt? Går i sådant fall gränsen i automatiseringen? Tel. nr och den typen av uppgifter är ju faktiskt ingen som kan sätta (c) på.

Google livnär sig inte enbart på deras sökmotor, samt att de inte heller söker igenom alla webbplatser, då de är snälla och lyder robots.txt

Jämför att använda tiotusentals ip adresser där en ip adress, en tid väljs med en pseudoslumptalsgenerator som inte söker igenom en sida på ett sekventiellt sätt med en människa som sitter på en fast ip adress och går igenom sida för sida sekventiellt. En är väldigt ineffektiv och väldigt enkel att blocka. En är så gott som omöjlig att blocka och läskigt effektiv.

Magnus_A 2010-03-18 17:22

Katalogskyddet borde vara ganska lätt att hävda i en rättsprocess för ägaren. Skraparen ligger rätt illa till.

tartareandesire 2010-03-18 17:32

Citat:

Ursprungligen postat av Magnus_A (Inlägg 20346968)
Katalogskyddet borde vara ganska lätt att hävda i en rättsprocess för ägaren. Skraparen ligger rätt illa till.

Jag skulle gärna vilja se exempel på några relativt aktuella rättsprocesser där katalogskydd har tagits upp. Jag tycker helt klart att man inte har rätt att kopiera någon annans arbete men samtidigt så är lagdefinitionen av katalogskydd i min mening ganska värdelös:

Citat:

Den som har framställt en katalog, en tabell eller ett annat dylikt arbete i vilket ett stort antal uppgifter har sammanställts eller vilket är resultatet av en väsentlig investering har uteslutande rätt att framställa exemplar av arbetet och göra det tillgängligt för allmänheten.
Uteslutande rätt att framställa vad exakt? Innehållet kan omöjligen vara skyddat?

Om någon kopierar mitt arbete lika uppenbart som i detta fallet så är det ju en sak men om det hela görs manuellt? Vad gäller då? Jag kan omöjligt bevisa någonting alls förutom att de har samma data.

Bjorne 2010-03-18 19:39

Citat:

Ursprungligen postat av Draqir (Inlägg 20346918)
Nej, du kan inte enkelt undvika alla möjliga scraping attacker genom enkla system av anti-proxy eller ännu enklare ip-banns vid ett visst antal requests och så vidare. Visst du kan lägga in Asirra eller någon mycket jobbigare kontroll än reCaptcha, eller något som kan brytas av anti-captcha algoritmer för att visa varje sida, varje gång den anropas, sådant skulle försena scraping en hel del och givetvis göra sidan den mest jobbiga i världen. Men du kan aldrig, om du har en publik sida undvika att informationen stjäls.

För det första stjäls inte information. För det andra är inte web scraping en form av attack. För det tredje, jo du kan visst enkelt undvika att bli scrapad. Utan att använda captcha. Försök scrapa google får du se.

tartareandesire 2010-03-18 19:44

Citat:

Ursprungligen postat av Bjorne (Inlägg 20346981)
För det första stjäls inte information. För det andra är inte web scraping en form av attack. För det tredje, jo du kan visst enkelt undvika att bli scrapad. Utan att använda captcha. Försök scrapa google får du se.

Vad menar du med att information inte stjäls och vad menar du med att det inte är en attack? Det beror ju helt på hur du definierar orden... I mina ögon är det ren stöld och det är givetvis också en attack mot min verksamhet då trafiken är inget annat än skadlig för mig.

Magnus_A 2010-03-18 22:00

Här är ett aktuellt svenskt fall om katalogskydd:
http://www.wn.se/showthread.php?t=29066

Lazyman här på WN skriver:
Citat:

Ärendet handlar om katalogskydd. Arbetet med att skapa databas och strukturera data är skyddat även om du inte äger de enskilda siffrorna, tex telefonnummer eller i detta fall mätdata.

Spindel, en anledningen att jag fick vetskap om att de tagit data var att en mätleverantörerna hittade en besökare på sin sajt som kommit från den webbplats där TS lagt upp sin version av KIA-index. Detta användes som bevis.

Den systematiska tömningen bevisades med serverlogg.

Draqir 2010-03-18 22:38

Citat:

Ursprungligen postat av Bjorne (Inlägg 20346981)
För det första stjäls inte information. För det andra är inte web scraping en form av attack. För det tredje, jo du kan visst enkelt undvika att bli scrapad. Utan att använda captcha. Försök scrapa google får du se.

Givetvis stjäl du information när du snor andras arbete som de har lagt ned tusentals timmar på. Vidare är det givetvis en attack i all dess innebörd om vi utgår från semantiken av ordet attack. Sen får du gärna berätta, hur du skyddar dig mot ett zombie nätverk av 100 000 datorer där du saknar ett fördefinerat söknings mönster och ett regelbundet tidsintervall emellan. Google har för övrigt redan blivit scrapad. Bättre lycka nästa gång!

Erik Stenman 2010-03-19 07:52

Frågan är om du överhuvud taget är något fel att ta informationen om den inte publiceras efteråt.

Sedan så är det väl inte olagligt med DDOS-attacker i Sverige? Har för mig att jag läste att det var "lagligt".

anderssvensson 2010-03-19 10:18

Man kan anställa 4st från china som kan skirva in manuellt i en excell fil och det blir billigare än att tillverka scraping scriptet.

finns det någon lag om att man inte får skriva ner information manuellt från en hemsidan? Hur fick dom information?

jonny 2010-03-19 10:32

Jag har svårt att se något problem med insamlandet av information så länge det inte överbelastar servern. Det är först OM informationen används som det börjar bli intressant.

tartareandesire 2010-03-19 11:18

Citat:

Ursprungligen postat av jonny (Inlägg 20347069)
Jag har svårt att se något problem med insamlandet av information så länge det inte överbelastar servern. Det är först OM informationen används som det börjar bli intressant.

Varför skulle någon få för sig att samla in informationen utan syfte att använda den?

Erik Stenman 2010-03-19 16:35

Citat:

Ursprungligen postat av tartareandesire (Inlägg 20347078)
Varför skulle någon få för sig att samla in informationen utan syfte att använda den?

Man kan använda något utan att publicera det. Jag är inte extremt insatt i katalogskyddet, som skyddar sammansättningen av data som i sig inte har någon upphovsrätt, men: Katalogskyddet skyddar väl bara mot att andra publicerar uppgifterna?

Tex kan jag ladda ner en allmänt tillgänglig databas över webbutvecklare i ett visst län. Då borde jag ju få använda uppgifterna för att tex. kontakta dem.

Att publicera dem igen skulle däremot kunna bryta mot någon lag.

tartareandesire 2010-03-19 17:13

Citat:

Ursprungligen postat av Erik Stenman (Inlägg 20347120)
Man kan använda något utan att publicera det. Jag är inte extremt insatt i katalogskyddet, som skyddar sammansättningen av data som i sig inte har någon upphovsrätt, men: Katalogskyddet skyddar väl bara mot att andra publicerar uppgifterna?

Tex kan jag ladda ner en allmänt tillgänglig databas över webbutvecklare i ett visst län. Då borde jag ju få använda uppgifterna för att tex. kontakta dem.

Att publicera dem igen skulle däremot kunna bryta mot någon lag.

Jovisst men det är nog inte särskilt ofta scraping sker av den anledningen och definitivt inte i det här fallet. Är det ett företag som står för det hela så finns det förmodligen ett ekonomiskt syfte och då ska man inte ständigt behöva bevaka dessa för att se vad de gör med informationen i framtiden.

jonny 2010-03-19 21:33

Citat:

Ursprungligen postat av tartareandesire (Inlägg 20347127)
Jovisst men det är nog inte särskilt ofta scraping sker av den anledningen och definitivt inte i det här fallet. Är det ett företag som står för det hela så finns det förmodligen ett ekonomiskt syfte och då ska man inte ständigt behöva bevaka dessa för att se vad de gör med informationen i framtiden.

Så du menar att Eniro borde oroa sig om jag faktiskt behåller telefonkatalogen de skickar ut?

tartareandesire 2010-03-20 00:09

Citat:

Ursprungligen postat av jonny (Inlägg 20347163)
Så du menar att Eniro borde oroa sig om jag faktiskt behåller telefonkatalogen de skickar ut?

Jag skrev om scraping och företag, det där är väl precis tvärtom typ? :) Dessutom kräver det lite mer jobb att göra något vettigt av telefonkatalogen.

klein 2010-03-22 07:46

Kungliga Biblioteket gör exempelvis. Dvs man scannar av nätet på hemsidor och lagra dem inför framtiden.

Citat:

Ursprungligen postat av tartareandesire (Inlägg 20347078)
Varför skulle någon få för sig att samla in informationen utan syfte att använda den?



Alla tider är GMT +2. Klockan är nu 04:10.

Programvara från: vBulletin® Version 3.8.2
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Svensk översättning av: Anders Pettersson