79 Dokumentationen verfügbar

Wissensdatenbank

Enjyn Crawler Website Analyse

Zuletzt aktualisiert: 19.01.2026 um 17:55 Uhr

Enjyn Crawler - Website-Analyse & Rating

Der Enjyn Crawler ist ein kostenloses Online-Tool, das Ihre Website auf Sicherheit, SEO, Performance und rechtliche Aspekte analysiert. In wenigen Sekunden erhalten Sie eine detaillierte Auswertung mit konkreten Handlungsempfehlungen zur Optimierung Ihrer Website.

Was wird geprüft?

Der Crawler analysiert Ihre Website in vier Hauptkategorien:

  • Sicherheit - SSL, Security-Header, Server-Konfiguration
  • SEO - Meta-Tags, Strukturierung, Indexierbarkeit
  • Content - Bilder, Überschriften, Barrierefreiheit
  • Rechtliches - DSGVO-Konformität, Impressum, Datenschutz

Sicherheits-Checks im Detail

SSL/HTTPS-Verschlüsselung

Prüft, ob Ihre Website über eine sichere HTTPS-Verbindung erreichbar ist. Eine SSL-Verschlüsselung ist heute Pflicht für jede Website und wird von Suchmaschinen als Ranking-Faktor gewertet.

Security Header

Folgende HTTP-Sicherheitsheader werden analysiert:

Header Funktion Priorität
Strict-Transport-Security (HSTS) Erzwingt HTTPS-Verbindungen Hoch
Content-Security-Policy Schützt vor XSS-Angriffen Hoch
X-Frame-Options Verhindert Clickjacking Mittel
X-Content-Type-Options Verhindert MIME-Sniffing Mittel
Referrer-Policy Kontrolliert Referrer-Informationen Mittel
Permissions-Policy Beschränkt Browser-Features Niedrig

Server-Informationen

Der Crawler prüft, ob sensible Server-Informationen öffentlich sichtbar sind:

  • Server-Version - Apache/Nginx-Versionsnummer sollte versteckt sein
  • PHP-Version - Keine PHP-Version im Header anzeigen
  • Veraltete Software - Warnung bei bekannten veralteten Versionen

security.txt

Die security.txt Datei (unter /.well-known/security.txt) ermöglicht Sicherheitsforschern, Schwachstellen verantwortungsvoll zu melden.

💡 Tipp: Eine security.txt zeigt, dass Sie Sicherheit ernst nehmen und bietet einen klaren Kommunikationskanal für Sicherheitsmeldungen.

SEO-Checks im Detail

Meta-Tags

  • Meta-Description - Beschreibung für Suchergebnisse (150-160 Zeichen)
  • Canonical Tag - Vermeidet Duplicate Content
  • Open Graph Tags - Optimiert Darstellung in sozialen Medien
  • Twitter Card Tags - Optimiert Darstellung auf Twitter/X

Technische SEO-Dateien

Datei Zweck
robots.txt Steuert Crawler-Zugriff auf Ihre Website
sitemap.xml Hilft Suchmaschinen alle Seiten zu finden
llms.txt Informiert KI-Systeme über Ihre Website

KI-Crawler Zugriff

Der Crawler prüft, ob gängige KI-Crawler (GPTBot, Claude, Bard etc.) in der robots.txt blockiert werden. Eine Blockierung kann die Sichtbarkeit in KI-gestützten Suchen beeinträchtigen.

ℹ️ Info: Die Entscheidung, KI-Crawler zu blockieren oder zuzulassen, hängt von Ihrer Content-Strategie ab. Der Crawler informiert Sie lediglich über den aktuellen Status.

Content-Checks im Detail

Überschriften-Struktur

  • H1-Tag - Jede Seite sollte genau eine H1-Überschrift haben
  • Mehrere H1-Tags - Warnung bei mehr als einem H1-Tag

Bilder

  • Alt-Texte - Alle Bilder sollten beschreibende Alt-Attribute haben
  • Favicon - Ein Favicon verbessert die Wiedererkennung

Rechtliche Checks (DSGVO)

Für Websites, die in Deutschland oder der EU betrieben werden, sind folgende Seiten gesetzlich vorgeschrieben:

Impressum

Nach § 5 TMG müssen geschäftsmäßige Websites ein Impressum mit vollständigen Anbieterinformationen bereitstellen.

Datenschutzerklärung

Nach Art. 13 DSGVO muss jede Website, die personenbezogene Daten verarbeitet, eine Datenschutzerklärung vorhalten.

⚠️ Wichtig: Fehlende rechtliche Seiten können zu Abmahnungen führen. Der Crawler prüft nur das Vorhandensein, nicht die inhaltliche Vollständigkeit.

Das Rating-System

Nach der Analyse erhalten Sie zwei Bewertungen:

eRate - Technische Bewertung

Das eRate bewertet die technische Qualität Ihrer Website auf einer Skala von 0-100 Punkten:

Note Punkte Bedeutung
A+ 95-100 Hervorragend - Alle Best Practices erfüllt
A 90-94 Sehr gut - Minimale Verbesserungen möglich
B 80-89 Gut - Einige Optimierungen empfohlen
C 70-79 Befriedigend - Mehrere Verbesserungen nötig
D 60-69 Ausreichend - Deutliche Mängel vorhanden
E 50-59 Mangelhaft - Dringende Optimierung erforderlich
F 0-49 Ungenügend - Kritische Probleme vorhanden

eTrust - Vertrauensbewertung

Das eTrust bewertet die Vertrauenswürdigkeit und Sicherheit Ihrer Website. Es berücksichtigt besonders:

  • SSL-Verschlüsselung und Zertifikatsgültigkeit
  • Vorhandensein von Security-Headern
  • Rechtliche Compliance (Impressum, Datenschutz)
  • Keine sichtbaren Server-Informationen

Punkteverteilung

Jedes gefundene Problem reduziert Ihren Score. Die Gewichtung erfolgt nach Schweregrad:

Schweregrad Punktabzug Beispiele
Hoch -8 bis -15 Punkte Kein HTTPS, kein Impressum, veraltete PHP-Version
Mittel -3 bis -7 Punkte Fehlende Security-Header, keine Meta-Description
Niedrig -1 bis -2 Punkte Kein Favicon, fehlende llms.txt

So verbessern Sie Ihren Score

Schnelle Erfolge (Quick Wins)

  1. SSL aktivieren - Die meisten Hoster bieten kostenlose Let's Encrypt Zertifikate
  2. Meta-Description hinzufügen - Einfach im CMS oder HTML-Head ergänzen
  3. Favicon erstellen - Ein 32x32 Pixel Icon genügt für den Anfang
  4. robots.txt anlegen - Grundkonfiguration in wenigen Minuten erstellt

Mittelfristige Optimierungen

  1. Security Header konfigurieren - Über .htaccess oder Server-Konfiguration
  2. Alt-Texte ergänzen - Alle Bilder mit beschreibenden Texten versehen
  3. Rechtliche Seiten prüfen - Impressum und Datenschutz aktualisieren

Beispiel: Security Header in .htaccess

# Security Headers für Apache
<IfModule mod_headers.c>
    Header always set Strict-Transport-Security "max-age=31536000; includeSubDomains"
    Header always set X-Frame-Options "SAMEORIGIN"
    Header always set X-Content-Type-Options "nosniff"
    Header always set Referrer-Policy "strict-origin-when-cross-origin"
    Header always set Permissions-Policy "geolocation=(), microphone=(), camera=()"
</IfModule>
💡 Tipp: Nach jeder Änderung können Sie Ihre Website erneut scannen, um die Verbesserung Ihres Scores zu überprüfen.

Häufige Fragen

Wie oft sollte ich meine Website scannen?
Wir empfehlen einen Scan nach jeder größeren Änderung sowie mindestens einmal pro Monat zur Routine-Überprüfung.
Warum unterscheidet sich mein Score von anderen Tools?
Jedes Tool hat eigene Bewertungskriterien und Gewichtungen. Der Enjyn Crawler fokussiert sich auf praktisch relevante Aspekte für deutsche Websites.
Werden meine Daten gespeichert?
Der öffentliche Scanner speichert keine Daten. Die Analyse erfolgt in Echtzeit und wird nicht protokolliert.
Kann ich den Scan für mehrere Unterseiten durchführen?
Der Crawler analysiert die eingegebene URL sowie automatisch erkannte Unterseiten. Für umfangreiche Analysen kontaktieren Sie uns.
Was bedeutet "KI-Crawler blockiert"?
Ihre robots.txt blockiert bekannte KI-Crawler wie GPTBot oder ClaudeBot. Dies kann gewollt sein, beeinflusst aber möglicherweise die Sichtbarkeit in KI-Suchen.

Jetzt Ihre Website analysieren

Kostenloser Website-Check

Scannen Sie Ihre Website jetzt kostenlos und erhalten Sie sofort Ihr eRate und eTrust Rating mit detaillierten Optimierungsvorschlägen.

Zum Enjyn Crawler

Weitere Hilfe

Bei Fragen zur Interpretation Ihrer Ergebnisse oder zur Umsetzung der Empfehlungen helfen wir Ihnen gerne: