Télécharger la liste

Description du projet

Sirobot is a Perl script that downloads Web pages recursively. The main advantage over wget is its ability to get them concurrently, and is able to continue aborted downloads and convert absolute links to relative ones. It uses curses, can do HTTPS, and has a pattern-matching filter to prevent you from downloading the whole Internet.

Système requise

System requirement is not defined
Information regarding Project Releases and Project Resources. Note that the information here is a quote from Freecode.com page, and the downloads themselves may not be hosted on OSDN.

2003-04-09 03:19
1.0.2

Ce communiqué de chapes avec les noms de fichiers longs (> 255 signes), et ne méconnaît pas les cookies installés lors d'une intervention 301/302.
Tags: Minor feature enhancements
This release copes with long filenames (> 255 chars), and doesn't ignore cookies set during a 301/302 response.

2001-08-21 23:03
0.16.1

Les options - flush et - dump-TodoList ont été ajoutées. Elles vous permettent de fermer grâce à l'attente des téléchargements et continuer plus tard, avec ceux qui n'étaient pas traitées.
Tags: Minor feature enhancements
The options --flush and --dump-todolist have been added. They allow you to gracefully shut down pending downloads and continue later with those not processed.

2001-03-20 21:14
0.15.4

L'utilisation de cookie et une option pour vider liens récupérées pour traitement externe.
Tags: Minor feature enhancements
Cookie support and an option to dump retrieved links for external processing.

2001-01-30 15:13
0.8.2

Une nouvelle option - convertir permet la conversion des liens absolus pour vous permettre de mieux parcourir les pages donwloaded hors connexion.
A new option --convert enables conversion of absolute links so you can better browse through donwloaded pages while offline.

2001-01-30 15:13
0.7.2

Correction d'un bug qui causait le programme à se bloquer si une page a trop de liens. Les options "- header" et "- NoProxy" ont été ajoutés.
Bug fixed that caused the program to hang if a page had too many links. The options "--header" and "--noproxy" were added.

Project Resources