LinkChecker 8.2
Ungültige Links auf Webseiten finden

Beschreibung:
Dieses Programm, das eine Kommandozeilenversion, eine grafische Oberfläche und ein Web-Interface mitbringt , dient dem automatischen Aufspüren fehlerhafter Links und Verknüpfungen in HTML-Dokumenten und auf Webseiten. Es überprüft darin alle URLs und meldet Links der Protokolle HTTP, HTTPS, FTP, mailto:, news:, nntp: und Telnet sowie Links zu lokalen Dateien, die ins Leere führen. Das Programm arbeitet sehr schnell mit bis zu 20 gleichzeitigen Prozessen und auf Wunsch auch rekursiv, so dass ausgehend von der Startseite alle Links zu Unterseiten bis zu einer eingestellten Verzeichnistiefe verfolgt und auch deren Links gecheckt werden. Das Ergebnis kann als bunter oder normaler Text in einer Text-, HTML-, SQL-, CSV- oder XML-Datei oder in einer Zeichnung gespeichert werden. Beim Check können Filter gesetzt werden. Proxy, die Anmeldung mit Usernamen und Passwort bei HTTP, FTP und Telnet, das robots.txt-Exklusions-Protokoll, Cookies und HTML5 werden unterstützt, und die HTML- und CSS-Syntax sowie ein möglicher Virenbefall werden geprüft.

Die grafische Oberfläche ist für Screen Reader nicht zugänglich. Man kann aber gut mit der Kommandozeilen-Version arbeiten. Syntax:
linkchecker.exe [Optionen] [Datei-oder-url]
Hier sind einige Optionen aufgeführt. Weitere Informationen und genauere Beschreibungen der Programmnutzung finden Sie auf der Handbuch-Seite, allerdings in englischer Sprache:
Manual
--check-css = die Syntax von CSS-URLs mit dem `W3C online Validator` überprüfen,
--check-html = die Syntax von HTML-URLs mit dem `W3C online validator` überprüfen,
--complete = alle URLs auflisten, auch doppelt vorhandene; voreingestellt ist das einmalige Auflisten,
-F[Dateityp] oder --file-output=[Dateityp] = Ergebnis in einer Datei namens linkchecker-out.* speichern; falls die Datei existiert, wird sie überschrieben. Diese Option kann mehrfach gesetzt werden. Als Dateityp wird text, html, sql, csv, gml, dot, xml, none oder blacklist akzeptiert. Voreingestellt ist keine Ausgabe.
-F[Dateiname] oder --file-output=[Dateiname] = Ergebnis in der bezeichneten Datei speichern; falls die Datei existiert, wird sie überschrieben. Diese Option kann mehrfach gesetzt werden. Als Dateityp wird text, html, sql, csv, gml, dot, xml, none oder blacklist akzeptiert. Voreingestellt ist keine Ausgabe.
-o[Dateityp] oder --output=[Dateityp] = Das Ausgabeformat als Text, HTML, SQL, CSV, GML, DOT, XML, none oder blacklist festlegen; voreingestellt ist Text,
-q oder --quiet = Operation abbrechen,
--scan-virus = Virenscan der URL mit ClamAV,
-v oder --verbose = alle geprüften URLs auflisten; voreingestellt sind nur Fehler und Warnungen,
--warning-size-bytes=N = eine Warnung anzeigen, falls die Webseitengröße verfügbar ist und die Größe N Bytes übersteigt,
-WREGEX oder --warning-regex=REGEX = eine REGEX (regulären Ausdruck) definieren, der eine Warnung anzeigt, wenn ein Teil des Inhalts des geprüften Links passt; Das funktioniert nur mit gültigen Seiten, so dass man deren Inhalt angezeigt bekommen kann. REGEX kann Englische Sätze, E-Mail-Adressen, TeX-Befehle oder einen beliebigen Text enthalten. Damit kann man Seiten überprüfen, die Formen von Fehlermeldungen enthalten, beispielsweise "This page has moved" oder "Oracle Application error". Als REGEX können auch mehrere Ausdrücke gesetzt werden, beispielsweise "(This page has moved|Oracle Application error".
--ignore-url=REGEX = nur die Syntax von URLs überprüfen, die dem vorgegebenen REGEX (regulären Ausdruck) entsprechen; REGEX kann Englische Sätze, E-Mail-Adressen, TeX-Befehle oder einen beliebigen Text enthalten. Als REGEX können auch mehrere Ausdrücke gesetzt werden.
--no-follow-url=REGEX = URLs überprüfen, aber dem Link nicht folgen, wenn er dem gesetzten REGEX (regulären Ausdruck) entspricht; REGEX kann Englische Sätze, E-Mail-Adressen, TeX-Befehle oder einen beliebigen Text enthalten. Als REGEX können mehrere Ausdrücke gesetzt werden.
-p oder --password = ein Passwort von der Konsole übernehmen und für die HTTP- und FTP-Anmeldung übernehmen; Für FTP ist `anonymous@...` voreingestellt, Für HTTP keines,
-PN oder --pause=N = N Sekunden Pause zwischen zwei aufeinander folgenden Verbindungsanfragen beim gleichen Host; voreingestellt ist keine Pause,
-rN oder --recursion-level=N = alle Links bis zu N ebenen verfolgen; eine negative Zahl ergibt eine unendliche Suchtiefe, was auch voreingestellt ist,
--timeout=N = maximale Zeit für Verbindungsversuche mit einem Host in Sekunden; voreingestellt sind 60,
-u[Username] oder --user=[Username] = diesen Usernamen für die HTTP- und FTP-Anmeldung verwenden; voreingestellt für FTP ist anonymous, für HTTP keiner.
Hier folgen nun einige Beispiele. Erstes Beispiel ist die Standard-Situation, dass eine Domain rekursiv und mit den URLs überprüft wird, die nach außerhalb gehen, und die Speicherung des Ergebnisses in einer Textdatei. Bedenken Sie bitte, dass die gesamte Website überprüft wird, was eventuell tausende von Links beinhalten kann. linkchecker.exe -fc:\Output.txt-r5 http://www.example.net/
Im zweiten Beispiel soll nicht mit mailto:-Hhosts verbunden, sondern nur deren URL-Syntax getestet werden. Alle anderen Links werden überprüft:
linkchecker.exe --ignore-url=^mailto: mysite.example.org
Im nächsten Beispiel soll eine lokale HTML-Datei in Unix überprüft werden:
linkchecker.exe ../bla.html
In diesem Fall handelt es sich um eine lokale HTML-Seite unter Windows:
linkchecker.exe c:\temp\test.html
Wenn die Domain mit `www` beginnt, kann man den Teil `http://` auch weglassen:
linkchecker.exe www.example.com
Wenn die Domain mit `ftp` beginnt, kann man den Teil `ftp://` ebenfalls weglassen:
linkchecker.exe -r0 ftp.example.org

Windows: 2000, XP, Vista und 7
Lizenz: Open Source
Sprache: Deutsch
Dateigröße: 10,89 MB

Externer Download-Link:
Linkchecker


Zurück zur Kategorie "Internet"