Hur man laddar ner en hel webbplats för läsning offline

Hur man laddar ner en hel webbplats för läsning offline

Även om Wi-Fi är tillgängligt överallt dessa dagar, kan du befinna dig utan det då och då. Och när du gör det kan det finnas webbplatser du önskar att du borde ha sparat, så att du hade tillgång till dem medan du är offline - kanske för forskning, underhållning eller bara eftervärlden.





Det är ganska grundläggande att spara enskilda webbsidor för offline -läsning, men vad händer om du vill ladda ner en hel webbplats? Oroa dig inte, det är lättare än du tror. Men ta inte vårt ord för det. Här är flera fiffiga verktyg du kan använda för att ladda ner vilken webbplats som helst för offline läsning - utan krångel.





1. WebCopy

WebCopy av Cyotek tar en webbadress och söker efter länkar, sidor och media. När den hittar sidor söker den rekursivt efter fler länkar, sidor och media tills hela webbplatsen upptäcks. Sedan kan du använda konfigurationsalternativen för att bestämma vilka delar som ska laddas ned offline.





Det intressanta med WebCopy är att du kan konfigurera flera projekt som alla har sina egna inställningar och konfigurationer. Detta gör det enkelt att ladda ner många webbplatser igen när du vill, var och en på samma exakta sätt varje gång.

Ett projekt kan kopiera många webbplatser, så använd dem med en organiserad plan (t.ex. ett 'Tech' -projekt för kopiering av tekniska webbplatser).



hur man importerar borstar för att föröka sig

Hur man laddar ner en hel webbplats med WebCopy

  1. Installera och starta appen.
  2. Navigera till Arkiv> Ny att skapa ett nytt projekt.
  3. Skriv URL: en i Hemsida fält.
  4. Ändra Spara mapp fältet där du vill att webbplatsen ska sparas.
  5. Lek med Projekt> Regler ... ( läs mer om WebCopy -regler ).
  6. Navigera till Arkiv> Spara som ... för att rädda projektet.
  7. Klick Kopiera i verktygsfältet för att starta processen.

När kopieringen är klar kan du använda Resultat fliken för att se status för varje enskild sida och/eller mediefil. De Fel fliken visar eventuella problem som kan ha inträffat och Hoppat över fliken visar filer som inte laddades ner.

Relaterat: Bästa appar för att spara artiklar för offline läsning





Men det viktigaste är Webbplatskarta , som visar webbplatsens fullständiga katalogstruktur som upptäcktes av WebCopy.

Om du vill visa webbplatsen offline öppnar du Utforskaren och navigerar till den sparade mappen du angav. Öppna index.html (eller ibland index.htm ) i din valda webbläsare för att börja surfa.





Ladda ner: WebCopy för Windows (Fri)

2. HTTrack

HTTrack är mer känt än WebCopy, och är utan tvekan bättre eftersom det är öppen källkod och tillgängligt på andra plattformar än Windows. Gränssnittet är lite klumpigt och lämnar mycket att önska, men det fungerar bra, så låt det inte vända dig bort.

Precis som WebCopy använder den ett projektbaserat tillvägagångssätt som låter dig kopiera flera webbplatser och hålla dem alla organiserade. Du kan pausa och återuppta nedladdningar, och du kan uppdatera kopierade webbplatser genom att ladda ner gamla och nya filer igen.

Hur man laddar ner fullständig webbplats med HTTrack

  1. Installera och starta appen.
  2. Klick Nästa att börja skapa ett nytt projekt.
  3. Ge projektet ett namn, kategori, basväg och klicka sedan på Nästa .
  4. Välj Ladda ner webbplats (er) för åtgärd, skriv sedan in varje webbplats URL i Webbadresser rutan, en webbadress per rad. Du kan också lagra webbadresser i en TXT-fil och importera den, vilket är bekvämt när du vill ladda ner samma webbplatser igen senare. Klick Nästa .
  5. Justera parametrar om du vill, klicka sedan på Avsluta .

När allt är laddat ner kan du surfa på webbplatsen som vanligt genom att gå till var filerna laddades ner och öppna index.html eller index.htm i en webbläsare.

kan du ansluta bluetooth till xbox one

Hur man använder HTTrack med Linux

Om du är en Ubuntu -användare kan du använda HTTrack för att spara en hel webbplats:

  1. Starta Terminal och skriv följande kommando: | _+_ |
  2. Det kommer att be om ditt Ubuntu -lösenord (om du har ställt in ett). Skriv in det och slå Stiga på . Terminalen laddar ner verktyget på några minuter.
  3. Slutligen skriver du in det här kommandot och trycker på Stiga på . I det här exemplet laddade vi ner den populära webbplatsen, Hjärnplockningar . sudo apt-get install httrack
  4. Detta kommer att ladda ner hela webbplatsen för offline läsning.

Du kan ersätta webbplatsens URL här med webbadressen till vilken webbplats du vill ladda ner. Om du till exempel vill ladda ner hela Encyclopedia Britannica måste du justera ditt kommando till detta:

httrack https://www.brainpickings.org/

Ladda ner: HTTrack för Windows och Linux | Android (Fri)

3. SiteSucker

Om du använder en Mac är ditt bästa alternativ SiteSucker . Detta enkla verktyg kopierar hela webbplatser, upprätthåller samma struktur och innehåller också alla relevanta mediefiler (t.ex. bilder, PDF -filer, formatmallar).

Den har ett rent och lättanvänt gränssnitt-du klistrar in bokstavligen webbadressen och trycker på Stiga på .

En fin funktion är möjligheten att spara nedladdningen till en fil och sedan använda den filen för att ladda ner samma filer och strukturera igen i framtiden (eller på en annan maskin). Denna funktion är också det som gör att SiteSucker kan pausa och återuppta nedladdningar.

SiteSucker kostar cirka $ 5 och kommer inte med en gratisversion eller en gratis testversion, vilket är dess största nackdel. Den senaste versionen kräver macOS 11 Big Sur eller högre. Gamla versioner av SiteSucker är tillgängliga för äldre Mac -system, men vissa funktioner kan saknas.

Ladda ner : SiteSucker för ios | Mac ($ 4,99)

Fyra. Wget

Wget är ett kommandoradsverktyg som kan hämta alla typer av filer via HTTP- och FTP-protokollen. Eftersom webbplatser serveras via HTTP och de flesta webbmediefiler är tillgängliga via HTTP eller FTP, gör detta Wget till ett utmärkt verktyg för att ladda ner hela webbplatser.

Relaterad: Hur man laddar ner böcker från Google Books

Wget levereras med de flesta Unix-baserade system. Medan Wget vanligtvis används för att ladda ner enskilda filer, kan det också användas för att rekursivt ladda ner alla sidor och filer som finns på en första sida:

amazon säger att mitt paket levererades men jag fick det inte
httrack https://www.britannica.com/

Beroende på storlek kan det ta ett tag innan hela webbplatsen laddas ner.

Vissa webbplatser kan dock upptäcka och förhindra vad du försöker göra eftersom rippning av en webbplats kan kosta dem mycket bandbredd. För att komma runt detta kan du dölja dig som en webbläsare med en användaragentsträng:

wget -r -p https://www.makeuseof.com

Om du vill vara artig bör du också begränsa din nedladdningshastighet (så att du inte ökar webbserverns bandbredd) och pausa mellan varje nedladdning (så att du inte överväldigar webbservern med för många förfrågningar):

wget -r -p -U Mozilla https://www.thegeekstuff.com

Hur man använder Wget på en Mac

På en Mac kan du installera Wget med ett enda Homebrew -kommando: brygg installera wget .

  1. Om du inte redan har Homebrew installerat, ladda ner det med det här kommandot: | _+_ |
  2. Installera sedan Wget med det här kommandot: | _+_ |
  3. När Wget -installationen är klar kan du ladda ner webbplatsen med det här kommandot: | _+_ |

I Windows måste du använda denna portade version istället. Ladda ner och installera appen och följ instruktionerna för att slutföra webbplatsnedladdningen.

Ladda ner hela webbplatser enkelt

Nu när du vet hur du laddar ner en hel webbplats bör du aldrig fångas utan något att läsa, även när du inte har tillgång till internet. Men kom ihåg: ju större webbplats, desto större nedladdning. Vi rekommenderar inte att du laddar ner massiva webbplatser som MUO eftersom du behöver tusentals MB för att lagra alla mediefiler vi använder.

Dela med sig Dela med sig Tweet E-post Hur man laddar ner en komplett webbsida för offline läsning

Använd dessa metoder för att spara webbsidor för offline -läsning och ha dina favoritwebbsidor till hands när du behöver dem som mest.

Läs Nästa
Relaterade ämnen
  • Internet
  • Säkerhetskopiering av data
  • Offline -surfning
  • Ladda ner tips
Om författaren Shaant min(58 artiklar publicerade)

Shaant är personalförfattare på MUO. En examen i dataprogram, han använder sin passion för att skriva för att förklara komplexa saker på vanlig engelska. När han inte forskar eller skriver, kan han hittas njuta av en bra bok, springa eller umgås med vänner.

Mer från Shaant Minhas

Prenumerera på vårt nyhetsbrev

Gå med i vårt nyhetsbrev för tekniska tips, recensioner, gratis e -böcker och exklusiva erbjudanden!

Klicka här för att prenumerera