Dark Visitors

Dark Visitors ist ein Kirby-Plugin, das unerwünschte KI-Crawler mithilfe der robots.txt blockiert. Es verwendet die Dark Visitors API, um unerwünschte Besucher zu identifizieren und zu blockieren. Außerdem ermöglicht es dir, benutzerdefinierte Regeln und Ihre Sitemaps in Ihre robots.txt-Datei einzufügen.

Installation

composer require mauricerenck/darkvisitors

Lade die neueste Version hier herunter, entpacke sie und kopiere sie nach site/plugins/dark-visitors.

Hol dir den Zugriffstoken.

Du benötigst einen Dark Visitors Access Token, um dieses Plugin zu nutzen.
Geh zu https://darkvisitors.com/ und erstelle dir ein Konto und dein eigenes Projekt. Öffne dein Projekt und hol dir deinen Token unter "Einstellungen".

Usage

Bearbeite deine config.php und füge diese Zeile hinzu:

'mauricerenck.dark-visitors.token' => 'YOUR TOKEN'

KI crawlers

Definiere, welche Arten von KI-Chatbots du blockieren möchtest?

'mauricerenck.dark-visitors.aiTypes' => ['AI Assistant', 'AI Data Scraper', 'AI Search Crawler'],

Eigene Regeln

Füge deine eigenen Regeln zur robots.txt Datei hinzu:

'mauricerenck.dark-visitors.agents' => [
    [
        'userAgents' => ['Googlebot', 'Bingbot'],
        'disallow' => ['/admin'],
    ],
    [
        'userAgents' => ['Bingbot'],
        'allow' => ['/microsoft'],
    ],
],

Deine eigenen Regeln überschreiben die Standardregeln. Die Standardregeln lauten:

[
    'userAgents' => ['*'],
    'disallow' => ['/kirby', '/site'],
];

Sitemaps

Füge deine Sitemaps zur robots.txt hinzu:

'mauricerenck.dark-visitors.sitemaps' => [
    'Sitemap: https://your-site.tld/sitemap.xml',
    'Sitemap: https://your-site.tld/sitemap2.xml',
],

Tracking/Analytics

Darkvisitors bietet eine Tracking-Funktion. Wenn du das nutzen willst, kannst du es in der Konfiguration aktivieren:

'mauricerenck.dark-visitors.analytics' => true,

Erfahre mehr über robots.txt und KI-Crawler.