Enjyn Crawler Website Analyse
Enjyn Crawler - Website-Analyse & Rating
Der Enjyn Crawler ist ein kostenloses Online-Tool, das Ihre Website auf Sicherheit, SEO, Performance und rechtliche Aspekte analysiert. In wenigen Sekunden erhalten Sie eine detaillierte Auswertung mit konkreten Handlungsempfehlungen zur Optimierung Ihrer Website.
Was wird geprüft?
Der Crawler analysiert Ihre Website in vier Hauptkategorien:
- Sicherheit - SSL, Security-Header, Server-Konfiguration
- SEO - Meta-Tags, Strukturierung, Indexierbarkeit
- Content - Bilder, Überschriften, Barrierefreiheit
- Rechtliches - DSGVO-Konformität, Impressum, Datenschutz
Sicherheits-Checks im Detail
SSL/HTTPS-Verschlüsselung
Prüft, ob Ihre Website über eine sichere HTTPS-Verbindung erreichbar ist. Eine SSL-Verschlüsselung ist heute Pflicht für jede Website und wird von Suchmaschinen als Ranking-Faktor gewertet.
Security Header
Folgende HTTP-Sicherheitsheader werden analysiert:
| Header | Funktion | Priorität |
|---|---|---|
Strict-Transport-Security (HSTS) |
Erzwingt HTTPS-Verbindungen | Hoch |
Content-Security-Policy |
Schützt vor XSS-Angriffen | Hoch |
X-Frame-Options |
Verhindert Clickjacking | Mittel |
X-Content-Type-Options |
Verhindert MIME-Sniffing | Mittel |
Referrer-Policy |
Kontrolliert Referrer-Informationen | Mittel |
Permissions-Policy |
Beschränkt Browser-Features | Niedrig |
Server-Informationen
Der Crawler prüft, ob sensible Server-Informationen öffentlich sichtbar sind:
- Server-Version - Apache/Nginx-Versionsnummer sollte versteckt sein
- PHP-Version - Keine PHP-Version im Header anzeigen
- Veraltete Software - Warnung bei bekannten veralteten Versionen
security.txt
Die security.txt Datei (unter /.well-known/security.txt) ermöglicht Sicherheitsforschern, Schwachstellen verantwortungsvoll zu melden.
💡 Tipp: Eine security.txt zeigt, dass Sie Sicherheit ernst nehmen und bietet einen klaren Kommunikationskanal für Sicherheitsmeldungen.
SEO-Checks im Detail
Meta-Tags
- Meta-Description - Beschreibung für Suchergebnisse (150-160 Zeichen)
- Canonical Tag - Vermeidet Duplicate Content
- Open Graph Tags - Optimiert Darstellung in sozialen Medien
- Twitter Card Tags - Optimiert Darstellung auf Twitter/X
Technische SEO-Dateien
| Datei | Zweck |
|---|---|
robots.txt |
Steuert Crawler-Zugriff auf Ihre Website |
sitemap.xml |
Hilft Suchmaschinen alle Seiten zu finden |
llms.txt |
Informiert KI-Systeme über Ihre Website |
KI-Crawler Zugriff
Der Crawler prüft, ob gängige KI-Crawler (GPTBot, Claude, Bard etc.) in der robots.txt blockiert werden. Eine Blockierung kann die Sichtbarkeit in KI-gestützten Suchen beeinträchtigen.
ℹ️ Info: Die Entscheidung, KI-Crawler zu blockieren oder zuzulassen, hängt von Ihrer Content-Strategie ab. Der Crawler informiert Sie lediglich über den aktuellen Status.
Content-Checks im Detail
Überschriften-Struktur
- H1-Tag - Jede Seite sollte genau eine H1-Überschrift haben
- Mehrere H1-Tags - Warnung bei mehr als einem H1-Tag
Bilder
- Alt-Texte - Alle Bilder sollten beschreibende Alt-Attribute haben
- Favicon - Ein Favicon verbessert die Wiedererkennung
Rechtliche Checks (DSGVO)
Für Websites, die in Deutschland oder der EU betrieben werden, sind folgende Seiten gesetzlich vorgeschrieben:
Impressum
Nach § 5 TMG müssen geschäftsmäßige Websites ein Impressum mit vollständigen Anbieterinformationen bereitstellen.
Datenschutzerklärung
Nach Art. 13 DSGVO muss jede Website, die personenbezogene Daten verarbeitet, eine Datenschutzerklärung vorhalten.
Das Rating-System
Nach der Analyse erhalten Sie zwei Bewertungen:
eRate - Technische Bewertung
Das eRate bewertet die technische Qualität Ihrer Website auf einer Skala von 0-100 Punkten:
| Note | Punkte | Bedeutung |
|---|---|---|
| A+ | 95-100 | Hervorragend - Alle Best Practices erfüllt |
| A | 90-94 | Sehr gut - Minimale Verbesserungen möglich |
| B | 80-89 | Gut - Einige Optimierungen empfohlen |
| C | 70-79 | Befriedigend - Mehrere Verbesserungen nötig |
| D | 60-69 | Ausreichend - Deutliche Mängel vorhanden |
| E | 50-59 | Mangelhaft - Dringende Optimierung erforderlich |
| F | 0-49 | Ungenügend - Kritische Probleme vorhanden |
eTrust - Vertrauensbewertung
Das eTrust bewertet die Vertrauenswürdigkeit und Sicherheit Ihrer Website. Es berücksichtigt besonders:
- SSL-Verschlüsselung und Zertifikatsgültigkeit
- Vorhandensein von Security-Headern
- Rechtliche Compliance (Impressum, Datenschutz)
- Keine sichtbaren Server-Informationen
Punkteverteilung
Jedes gefundene Problem reduziert Ihren Score. Die Gewichtung erfolgt nach Schweregrad:
| Schweregrad | Punktabzug | Beispiele |
|---|---|---|
| Hoch | -8 bis -15 Punkte | Kein HTTPS, kein Impressum, veraltete PHP-Version |
| Mittel | -3 bis -7 Punkte | Fehlende Security-Header, keine Meta-Description |
| Niedrig | -1 bis -2 Punkte | Kein Favicon, fehlende llms.txt |
So verbessern Sie Ihren Score
Schnelle Erfolge (Quick Wins)
- SSL aktivieren - Die meisten Hoster bieten kostenlose Let's Encrypt Zertifikate
- Meta-Description hinzufügen - Einfach im CMS oder HTML-Head ergänzen
- Favicon erstellen - Ein 32x32 Pixel Icon genügt für den Anfang
- robots.txt anlegen - Grundkonfiguration in wenigen Minuten erstellt
Mittelfristige Optimierungen
- Security Header konfigurieren - Über .htaccess oder Server-Konfiguration
- Alt-Texte ergänzen - Alle Bilder mit beschreibenden Texten versehen
- Rechtliche Seiten prüfen - Impressum und Datenschutz aktualisieren
Beispiel: Security Header in .htaccess
# Security Headers für Apache
<IfModule mod_headers.c>
Header always set Strict-Transport-Security "max-age=31536000; includeSubDomains"
Header always set X-Frame-Options "SAMEORIGIN"
Header always set X-Content-Type-Options "nosniff"
Header always set Referrer-Policy "strict-origin-when-cross-origin"
Header always set Permissions-Policy "geolocation=(), microphone=(), camera=()"
</IfModule>
💡 Tipp: Nach jeder Änderung können Sie Ihre Website erneut scannen, um die Verbesserung Ihres Scores zu überprüfen.
Häufige Fragen
- Wie oft sollte ich meine Website scannen?
- Wir empfehlen einen Scan nach jeder größeren Änderung sowie mindestens einmal pro Monat zur Routine-Überprüfung.
- Warum unterscheidet sich mein Score von anderen Tools?
- Jedes Tool hat eigene Bewertungskriterien und Gewichtungen. Der Enjyn Crawler fokussiert sich auf praktisch relevante Aspekte für deutsche Websites.
- Werden meine Daten gespeichert?
- Der öffentliche Scanner speichert keine Daten. Die Analyse erfolgt in Echtzeit und wird nicht protokolliert.
- Kann ich den Scan für mehrere Unterseiten durchführen?
- Der Crawler analysiert die eingegebene URL sowie automatisch erkannte Unterseiten. Für umfangreiche Analysen kontaktieren Sie uns.
- Was bedeutet "KI-Crawler blockiert"?
- Ihre robots.txt blockiert bekannte KI-Crawler wie GPTBot oder ClaudeBot. Dies kann gewollt sein, beeinflusst aber möglicherweise die Sichtbarkeit in KI-Suchen.
Jetzt Ihre Website analysieren
Scannen Sie Ihre Website jetzt kostenlos und erhalten Sie sofort Ihr eRate und eTrust Rating mit detaillierten Optimierungsvorschlägen.
Weitere Hilfe
Bei Fragen zur Interpretation Ihrer Ergebnisse oder zur Umsetzung der Empfehlungen helfen wir Ihnen gerne: