Fusker
Fusker är en typ av webbplats eller verktyg som extraherar bilder i bulk från en webbplats (vanligtvis från gratis värdgallerier ) genom att systematiskt ladda och ladda ner bilder enligt ett mönster i webbplatsens URL-schema. Fusking eller fuskering används ofta för att extrahera privata och nakenbilder utan samtycke från ägaren.
Fusker-programvaran låter användare identifiera en sekvens av bilder med ett enda mönster, till exempel: http://www.example.com/images/pic[1-16].jpg
. Det här exemplet skulle identifiera bilder pic1.jpg till pic16.jpg. När detta mönster ges till en fusker-webbplats, skulle webbplatsen producera en sida som visar alla sexton bilder i det intervallet. Mönster kan också innehålla listor med ord, till exempel http://www.example.com/images/{small,medium,big}.jpg
, som ger tre webbadresser, var och en med ett ord från listan inom parentes. Webbsidan presenteras sedan för personen som gick in i fuskern och kan även sparas på fuskerns webbserver så att andra kan se den.
Fusker implementeringar
-programvara på serversidan extraherar innehåll (t.ex. bild eller video) från sin ursprungliga plats och visar det på en ny sida på klientsidan (användarens webbläsare). Innehåll separeras från den omgivande information som innehållsvärden kan ha tänkt (t.ex. länkar till affiliates eller betala-per-klick-annonser). Innehållet laddas dock inte ner lokalt till klienten av fuskerservern; den nya sidan som fusker-servern producerar instruerar klientens webbläsare att hämta varje del av innehållet från innehållsvärdens webbserver och visa det på den nya sidan . Detta kan leda till överdriven användning av internetbandbredd och slöseri. Många server-side- implementationer av Fusker-tekniken finns tillgängliga på webben.
Dessutom kan en fusker också implementeras som klientprogramvara som helt kringgår behovet av en tredjeparts fusker-webbplats. Genom att eliminera behovet av att fuskera via en webbplats elimineras behovet av att använda en webbläsare också. På grund av att du inte använder en webbläsare kommer Fusker -klientprogramvaran ofta att lagra nedladdat innehåll lokalt på klientdatorn . Detta minskar internetbandbredd eftersom Fusker- klientprogramvaran , till skillnad från en webbläsare , bara hämtar innehåll en gång (inga upprepade besök på webbsidor). Fusker klientprogramvara kan göra detta eftersom den effektivt kan emulera en webbläsare ; hänvisnings- och användaragentrubriker skrivs om till ett acceptabelt värde, och mer komplexa implementeringar kan också emulera en webbläsare till den grad att man kan klicka på länkar och logga in på konton. Men precis som serverbaserade fuskers, separerar klientprogramvarufuskers också innehåll från dess ursprungliga omgivning, vilket kan ha inkluderat annonser på innehållsvärdens webbplats .
Med den sofistikerade moderna webbläsaren är det nu möjligt att köra en klient-side fusker- programvara helt i en webbläsare som Internet Explorer . Dessa webbläsarimplementationer kan läsa och extrahera bildinformationen på de webbsidor du surfar på. De förlitar sig inte längre på sökningar av domäner med slumpmässiga söksträngar eller spoofing av IP-adresser genom att utge sig för att vara en hänvisare eller användaragent . Webbläsarfusker- applikationer tillhandahåller i huvudsak ett scrapbooking- gränssnitt i webbläsaren som tillåter direkt och anpassad åtkomst till webbbildinnehållet. Vissa implementeringar låter dig spara uppsättningar av fuskerinformation som en samlingsfil som kan delas elektroniskt med andra användare av fuskerapplikationen utan att behöva lagra eller överföra gigabyte med bilddata.
Kritik
Besökare på en fusker-webbplats ser ofta upphovsrättsskyddade pornografiska bilder som har separerats från sitt avsedda sammanhang, så kallade hot-linking . Fuskers har använts för att erhålla media från nakenbilder på privata eller lösenordsskyddade album i Photobucket utan medieägarnas medgivande. Några av dessa bilder laddades sedan upp till r/photobucketplunder Reddit- communityt, som hade 8000 prenumeranter innan det stängdes av när Photobucket skickade en DMCA-förfrågan till communityns moderatorer.
Företag som tillhandahåller gratis värdgallerier ogillar starkt fuskers eftersom de har potential att kosta dem mycket pengar i bandbreddsräkningar, och eftersom den enda anledningen till att gratisgallerierna tillhandahålls är att locka användaren att klicka på en mer lönsam länk, och de länkar visas inte längre när en fusker används. [ citat behövs ]
Vissa fuskerimplementeringar på klientsidan söker blint i domäner efter bilder baserat på vanliga filnamn och katalogstrukturer. Vissa hävdar att de många HTTP 404 -filerna inte hittades och HTTP 403 förbjudna serverfel som genereras utgör en överbelastningsattack . Som svar kontrollerar de flesta webbplatsadministratörer hänvisnings- och användaragenthuvudena som skickas av den begärande klientprogramvaran för att förhindra att deras bilder "fuskeras" eller kräver att användarna loggar in. Vissa fuskerprogram har dock förmågan att emulera en legitim webb. webbläsare. hänvisnings- och användaragentrubriker skrivs om till ett acceptabelt värde, och mer komplexa implementeringar kan också emulera en webbläsare till den grad att man kan klicka på länkar och logga in på konton.
Webbläsarimplementationer som körs i en legitim webbläsare erbjuder en mer legitim åtkomst till webbinnehållet. Åtkomst via dessa applikationer är mycket likt att ha sparat ett bokmärke till bilden. Men till skillnad från ett bokmärke kan dessa implementeringar komma åt tusentals bilder samtidigt och kan även överbelasta servrar som inte kan betjäna denna mängd innehåll.
Etymologi
"Fusker" är en dansk term som ursprungligen betydde en person som i hemlighet utförde arbete utanför de officiella skråen. Den kom till danska omkring 1700 från tyska pfuscher , som betyder botcher. Senare kom det att betyda att någon fuskade (till exempel använde företagets resurser för personlig nytta) eller växelvis utförde luddigt arbete.
Historia
Den ursprungliga fusker-tekniken skapades av Carthag Tuek, som gjorde Perl CGI- skriptet som ett verk av UNIX/Linux cURL -verktyget , särskilt dess URL- globing -funktionalitet.
Idén har förts vidare av andra och överförts till andra skriptspråk.
Se även
- Webbsökare , för programvara som systematiskt går igenom webbplatser
- Webbskrapning , för att extrahera data från webbplatser i allmänhet