Roter und blauer Bot Roter und blauer Bot
Es gibt gutartige und bösartige Bots. In den Webanalyse-Daten soll jedoch keiner davon auftauchen. (Symbolbild)

Das Analysieren von Website-Daten ist von zentraler Bedeutung für Unternehmen, um fundierte Entscheidungen zu treffen und den Kundentrichter zu analysieren. Allerdings tummeln sich auf den Webseiten nicht nur menschliche Nutzer:innen, sondern auch diverse Programme, auch Bots oder Spider genannt. Die von diesen Programmen verursachten «Spuren» sollen natürlich nicht mit in die Entscheidungsgrundlagen fliessen. Dennoch sind einige von ihnen willkommene Gäste auf unseren Websites.

Die «echten», also menschlichen User von den Bots zu unterscheiden, ist nicht ganz einfach. Es gibt aber einige Ansatzpunkte, die auf durch Programme verursachten Traffic hinweisen.

Zugriffshäufung an einzelnen Tagen

Wenn an einem Tag plötzlich auffallend viele Zugriffe verzeichnet wurden und diese anderweitig nicht erklärt werden können (Start einer grossen Werbekampagne, TV-Bericht, Social-Media-Beitrag der viral gegangen ist o.ä.), ist die Wahrscheinlichkeit gross, dass es sich um Bot-Traffic handelt. Oft findet dies auch noch zu Zeiten statt, zu denen normale Nutzer:innen nicht auf der Website sind wie mitten in der Nacht oder sehr früh morgens.

Zugriffshäufung von ungewöhnlichen Orten

Wenn Ihre Website beispielsweise primär von Nutzerinnen und Nutzern aus der DACH-Region besucht wird und Sie plötzlich übermässige Aktivitäten aus einer afrikanischen Stadt oder einem asiatischen Land verzeichnen, weist dies auf Bot-Traffic hin. Grundsätzlich sind alle Aktivitäten, die sich merklich von den sonst üblichen Zugriffen Ihrer User unterscheiden, ein Hinweis auf nicht-menschlichen Traffic.

Absprungrate 100 Prozent oder Verweildauer von 0 Sekunden

Liegt die die Absprungrate bei 100 Prozent bzw. nahezu 100 Prozent? Oder beträgt die die Zeit, welche die Besucher:innen auf der Seite verbracht haben, 0 Sekunden? Dann liegt der Verdacht auf Bot-Traffic ebenfalls sehr nahe. Menschliche Nutzer:innen sind wenigstens ein paar Sekunden auf einer Seite, selbst wenn sie danach abspringen und keine Handlungen ausführen wie scrollen oder auf einen Link klicken.

Benutzer-Herkunft: Unbekannte Quellen oder «Bot»

In einigen Fällen weisen sich die Programme als Bots aus. Die bekannten, «gutartigen» Bots (siehe unten) sind als solche zu erkennen und benennen sich selbst korrekt. Wenn Traffic von mysteriösen, nicht zuweisbaren oder zwar ausgewiesenen aber den Websitebetreibenden nicht bekannten Quellen stammt, könnte es sich ebenfalls um Bot-Zugriffe handeln.

Bekannte und «gutartige» Bots

Es gibt Spider-Programme, die allgemein bekannt sind und keinen Schaden anrichten. Diese sind beispielsweise dafür da, Seiten zu indexieren und den Inhalt der Website für Suchmaschinen verfügbar zu machen. So sind Googlebot und Bingbot die bekannten Webcrawler von Google und Microsoft. Diese Programme sollen sehr wohl die Seite besuchen können und ihrer Arbeit nachgehen, denn die Seiten sollen ja in den Suchmaschinen auffindbar sein. Nur in den Analyse-Daten für die Website-Nutzung möchten wir ihre Aktivitäten nicht haben.

Schadhafte Programme

Andere Bots wurden dafür entwickelt, Schaden anzurichten. Die Bandbreite geht dabei von Versuchen von Kontoübernahmen über das Stören/Verlangsamen der Website bis hin zum Stehlen von vertraulichen Informationen. Es erklärt sich von selbst, dass diese Bots keinen Zugriff auf die Website erhalten dürfen und die Seite vor ihnen geschützt werden muss.

Fazit

Webbots zu erkennen ist nicht immer einfach, aber möglich. Die «gutartigen» Programme sollen dabei auf die Website zugreifen können, während wir die schadhaften Bots ausschliessen wollen. Wie genau dies zu bewerkstelligen ist, kann auf diversen Seiten im Internet nachgelesen werden. Da sich die Bots auch laufend weiterentwickeln, sollten möglichst aktuelle Quellen hinzugezogen werden. Eine gute Webagentur kann hier ebenfalls weiterhelfen.

Facebook Twitter Xing LinkedIn WhatsApp E-Mail