Freunde, es wird wild! Die KI-Website-Builder schießen aus dem Boden wie Unkraut im Hinterhof – und das komplett ohne Gärtner. Immer mehr Website-Baukästen machen jetzt auf schlau und bauen KI-Funktionen ein.
Früher hast du vielleicht auf „ueber-uns.html“ rumgehackt, heute reicht oft schon ein schlapper Prompt und BÄM 🧑🎤 – Text, SEO, Metadaten und Co. fliegen dir um die Ohren.
Manche lassen dich sogar eine ganze Website zaubern, einfach so aus der Luft. Aber ist das schon ein richtiger „KI-Website-Builder“ oder nur so Halbgas mit Extra? 🤔 Dies das, ihr wisst Bescheid.
2025: KI-Baukästen – was geht, was ist Trash?
1. KI-Codegeneratoren – Für die Nerds unter uns 🤓
Also, wenn du Bock auf Coden hast und HTML dein Yoga ist, dann yes: Besorg dir nen Codegenerator. Die werfen dir die Seite direkt als Code hin (CSS und HTML, Baby!). ABER – und jetzt mal ehrlich: Das ist nix für Leute, die Tastatur und Maus nur zum Pizza bestellen benutzen. Änderungen? Vergiss es, da bist du im Quellcode am Schwitzen. Selbst mit KI-Chatbot hilft meistens nur: Selber hacken, Code eintüten und Kaffee intravenös. Kuss geht raus an alle, die daran Spaß haben, aber für Normalsterblich würde ich sagen: Eh, lieber nicht.
2. KI-Website-Builder – Auch für dich, Schwiegermutti! 🎨🦾
Viel smarter finde ich die KI-Website-Builder. Die nehmen alles Coole vom klassischen Baukasten (schön klicken, wenig denken) und packen da KI rein. Heißt für dich: Du wirst gefragt, was du willst – Shop, Portfolio, Katzenfotos oder doch Quantencomputer-Blog? Dann baut dir die KI was zusammen. Text und Bild kannst du gleich frisch machen lassen – oder zigmal neu generieren. No Front, das ist schon ziemlich stabil. ABER (ja, ich weiß, immer diese Aber…) – oft sind die immer noch irgendwie limitiert: Manche können nur Standardblöcke, SEO, n bisschen Text. Neue Seiten? E-Commerce? Schwierig. Ein richtig dickes Ding ist kaum dabei.
easyPage: Der Builder, der Backspin hat! 🎛️💥
Jetzt haltet euch fest, Liebe Community, Trommelwirbel! 🥁 Site.pro hat 2025 einen rausgehauen und alle anderen KI-Builder alt aussehen lassen – no cap! Da bekommst du nicht nur die erste Rohfassung deiner Seite hingeknallt, sondern hast die KI im Nacken, die live für dich buckelt! Machst du ’nen Wunsch, setzt das Ding um, fast schon wie bei „Wünsch dir was“.
Was kann der Builder alles?
– Neue Sektionen: Von Blog bis Shop, alles mit einem Befehl reinballern 😏 – Seitenstruktur nach deinem Geschmack – Schieb die Blöcke, wie du willst, oder lass die KI ran – SEO? Automagisch KI-Titel und Descriptions, schon ist Google happy – Übersetzung? Klar, AI kann auch Französisch, Spanisch, Klingonisch (ok, fast) – Wunschfarbe? „Mach das grün wie meine Hoffnung nach dem letzten Deploy“ – DONE – Bilder? Lass dir was malen, Digi! – Webdesign-Frage? Frag die KI wie du den eleganten Touch hinbekommst, zack, Antwort im Chat
Ach so: Willst du total classic unterwegs sein – baust du halt alles per Drag & Drop. Safe.
Vorteil: Maximaler Chill, maximaler Style 🏖️
Ich sag’s, wie’s ist: Einfache Website-Builder waren schon nice, aber jetzt wird’s richtig komfortabel. Kein Tutorial-Gewitter, kein HTML-Lernen bis nachts. Willst du ein neues Menü, fragst die KI. Farben-Drama? Sag Bescheid, läuft. Meine Oma wär stolz (wenn sie wüsste, was AI ist). So easy war Web bauen noch nie. 💯
Fazit – KI ist gekommen, um zu bauen! 🤖❤️
Das ist erst der Anfang, Leute. KI-Website-Builder werden jedes Jahr smarter. Was früher wie so ’n Demo-Mockup aussah, ist jetzt schon fast Magie. Und mit easyPage läuft’s noch persönlicher – per Chat oder Sprachbefehl, wie es dir gefällt. Teste das Ding, die KI Features gratis dazu.
Fragen? Feedback? Rein in die Kommentare, gebt mir ein Emoji, wenn ihr bis hierhin gelesen habt. 🚀🔥
Erinnere dich an das Jahr 2005. Die Digitalisierung nahm gerade richtig Fahrt auf, und inmitten dieses Aufbruchs wurde ein Content Management System geboren, das dir vielleicht noch heute gut bekannt ist: Joomla!. Eine stabile Größe im Open-Source-Universum, die jetzt, fast zwei Jahrzehnte später, eine tiefgreifende strategische Neuausrichtung vornimmt.
Joomla steht am Scheideweg. Viele von uns, die das System vielleicht noch aus der frühen 3.x-Ära kennen, fragen sich: Wie kann eine 20 Jahre alte Plattform in einer Welt voller KI-Tools, Headless-Architekturen und „No-Code“-Anbieter relevant bleiben?
Die Antwort, die das Kernteam um Produktionsleiterin Sigrid Gramlinger gibt, ist radikal, mutig und vor allem: professionell. Es ist ein Plan, der nicht nur die Codebasis, sondern auch das Selbstverständnis von Joomla neu definiert. Hier ist ihr Video dazu: https://www.youtube.com/watch?v=wnw1mI6d2AE.
Abschied von der Vergangenheit: Stabilität ist das neue „Wow“
Wenn du Joomla von früher kennst, erinnerst du dich vielleicht an lange Wartezeiten zwischen großen Versionssprüngen, die Upgrades zu einem nervenaufreibenden Projekt machten. Das ist vorbei.
Das erste Fundament der neuen Strategie ist Planbarkeit. Joomla hat auf ein straffes, zeitbezogenes Release-Modell umgestellt: Alle zwei Jahre gibt es ein Major Release (z.B. 6.0, 7.0, 8.0), alle sechs Monate ein Minor Release und alle sechs Wochen ein Wartungs-Update. Diese strenge Taktung soll Verlässlichkeit für das gesamte Ökosystem schaffen. Du weißt jetzt genau, wann du mit neuen Funktionen rechnen kannst und wann du deine Projekte planen musst.
Tatsächlich definieren die Entwickler die „Wow-Faktoren“ neu: Sie liegen definierterweise nicht in glitzernden Gimmicks, sondern in einer stabilen Architektur, besserer Barrierefreiheit und vor allem in reibungslosen Migrationspfaden.
Die mutige Wende: Tschüss Hobbyisten, hallo Profis!
Der vielleicht bemerkenswerteste Schritt in Joomlas Zukunftsplan ist eine strategische Trennung: Du wendest dich bewusst von den Hobby-Nutzern („do-it-yourself“ users) ab.
Das soll keine böse Absicht sein, sondern ist vielleicht einer nüchterne Marktanalyse entsprungen. Diese Nutzergruppe wechselt ohnehin zu einfacheren „Website-Baukästen“ wie easyPage. Gleichzeitig verursachen sie hohe Support-Kosten und aktualisieren ihre Websites oft nicht, was dem Ruf des Systems schadet.
Joomla konzentriert sich stattdessen kompromisslos auf die professionellen Anwender:
Agenturen und Webentwickler: Die Multiplikatoren, die Hunderte von Websites betreuen.
Den öffentlichen Sektor und Non-Profits: Organisationen, die Open Source, Barrierefreiheit und Compliance nach europäischen Standards benötigen.
Enterprise-Kunden: Für Intranets und hochstrukturierte Content-Lösungen.
Du wirst in Zukunft sehen, wie Joomla explizit für komplexe, geschäftskritische Anwendungen entwickelt wird, bei denen Sicherheit und Stabilität mehr zählen als der einfachste Einstieg.
Das Risiko für die Entwickler-Community
Diese strategische Entscheidung birgt jedoch eine reale Gefahr für die Open-Source-Community und den Nachwuchs:
Traditionell finden viele Nutzer und spätere Entwickler über „Trial and Error“ den Einstieg in ein CMS. Das hat man doch bei WordPress gesehen. Man beginnt mit einem kleinen Hobby-Projekt, experimentiert, stößt an persönliche Grenzen und professionalisiert sich dann. Diese Gruppe von initialen „Hobbyisten“ ist oft der Pool, aus dem später die professionellen Anwender, die Unternehmen gründen oder in Agenturen eintreten, hervorgehen.
Wenn du diese Einstiegsgruppe nun strategisch ausschließt, entsteht ein Problem: Wer soll in Zukunft Leidenschaft und Wissen für Joomla in die Unternehmen tragen und das System dort empfehlen? Wo findet man Developer, die das System kennen (vermutlich kennen TYPO3 und Drupal diesen Effekt). Und wer soll die Reihen der ehrenamtlichen Entwickler, Tester und Dokumentierer auffüllen, deren Engagement für das Überleben von Joomla unerlässlich ist, wenn die Altvorderen offboarden?
Joomla muss diesen Spagat meistern: Wie kann man die professionelle Ausrichtung konsequent verfolgen und gleichzeitig die Community-Engagement-Tools und das Onboarding so attraktiv gestalten, dass der Nachwuchs auch ohne den „Hobby-Einstieg“ den Weg zum CMS findet.
Der Joomla 8 Sprint: KI, Compliance und globale Relevanz
Noch eine Frage muss erlaubt sein: Wie genau sieht die technologische Zukunft von Joomla aus? Die Roadmap, die im Rahmen des „Joomla 8 Sprints“ entwickelt wird, zeigt eine klare Ausrichtung auf die globalen Anforderungen der Creator Economy, insbesondere in Europa:
Automatisierung für Sicherheit: Mit Joomla 6 wird die Option für automatische Core-Updates eingeführt. Das ist ein Game Changer. Es erlaubt dir, die kritischen Sicherheitslücken zu schließen, oft bevor Hacker automatisierte Skripte entwickelt haben – ein entscheidender Faktor im Kampf gegen Cyberangriffe.
Compliance Center: In Europa sind regulatorische Aspekte wie die DSGVO und der EU Cyber Resilience Act (CRA) von zentraler Bedeutung. Joomla reagiert darauf mit der Vision eines Compliance Centers. Dieses Dashboard soll dir eine zentrale Übersicht über den Status von Datenschutz, Barrierefreiheit und allgemeiner Website-Gesundheit bieten. Es soll Joomla als vertrauenswürdiges und rechtskonformes CMS positionieren.
Die KI-Verbindung: Um wettbewerbsfähig zu bleiben, sind KI-Tools unerlässlich. Du kannst dich auf die Integration von KI-Funktionen für Content-Erstellung, Übersetzung und Bildgenerierung freuen. Gleichzeitig werden bessere APIs entwickelt. Diese sind essenziell, um Joomla als Headless-System zu nutzen und es nahtlos mit E-Commerce-Plattformen oder Marketing-Tools zu verbinden – die Grundvoraussetzung, um in der globalen Creator Economy mitzuspielen.
Generative Engine Optimization (GEO): Neben der klassischen SEO bereitet sich Joomla auf die Generative Engine Optimization vor. Das System soll sicherstellen, dass deine Inhalte auch in den KI-Suchergebnissen sichtbar sind – ein Weichensteller für die digitale Zukunft.
Joomla auf dem globalen Spielfeld: Video und Content Hub
Joomla ist von Grund auf international: Multilingualität gehört seit Langem zu seinen Kernstärken. Doch die globale Creator Economy – die in „jüngeren“ Märkten wie Indien und dem gesamten Asien-Pazifik-Raum (APAC) am schnellsten wächst – stellt neue Herausforderungen.
Während Europa den Fokus auf strukturierte Inhalte und Compliance legt, dominiert in APAC das Volumen und Video-getriebener Content, oft im Format „Content-to-Commerce“ oder Live-Shopping. Hier zählen Geschwindigkeit, Reichweite und die nahtlose Anbindung an soziale und Video-Plattformen.
Die aktuelle strategische Ausrichtung Joomlas auf Stabilität und europäische Regularien könnte das Risiko bergen, diesen riesigen, schnelllebigen Markt zu verpassen.
Sieht so aus als wären die geplanten technologischen Fortschritte wie das Performance Pack und die API-Erweiterung sind Joomlas einzige Chance, diesen Graben zu überbrücken: Nur wenn das System mühelos große Mediadateien (Videos) verarbeitet und die Inhalte schnell und flexibel über Headless-Funktionen an externe (Video-)Hubs verteilt, kann es sich als relevanter Content Hub in dieser jungen, dynamischen Wirtschaft etablieren. Es geht darum, nicht nur compliance-konforme Texte, sondern auch jugendgerechten, Video-first-Content zu managen.
Die Initiative: Sei Teil des Kerns
Joomla ist ein Freiwilligenprojekt, und sein größtes Kapital ist seine Community. Sigrid Gramlinger machte klar: Wenn die ehrenamtlichen Helfer – die Core-Community – schwinden, stirbt das System. Die Stärkung dieser Helfer, der Extension-Entwickler und der Anwender ist die wahre Initiative, mit der Joomla relevant bleiben will.
Das Joomla-Team hat dich eingeladen: Wenn du Ideen für die Zukunft hast, beteilige dich am Joomla 8 Sprint. Reiche deine Ideen ein und bringe dich ein:
Joomla hat sich neu erfunden. Es ist nicht mehr das „einfache“ CMS von früher, sondern ein professionelles Werkzeug, das sich auf dem Weltmarkt behaupten will. Jetzt liegt es an uns, diese strategische Wende zu unterstützen und zu nutzen. Die Zukunft von Joomla ist anspruchsvoll, aber dank der engagierten Community ist sie vor allem eines: gesichert.
Die neue digitale Realität – Fluch und Segen der Creator Economy
Die Creator Economy boomt. Laut Analysten soll sie bis 2027 ein Volumen von 480 Milliarden US-Dollar erreichen. Social-Media-Feeds sind voll von Erfolgsgeschichten – doch die Realität vieler Content Creator sieht anders aus. Nur rund 4 % weltweit verdienen über 100.000 US-Dollar pro Jahr und können wirklich gut davon leben. Die allermeisten aber kämpfen mit schwankenden Einnahmen, Abhängigkeit von Algorithmen und permanenter Unsicherheit.
Aber Geld verdienen mit der Website? Wie kannst du als Creator, Blogger, Side-Hustler oder angehende:r Influencer:in ein stabiles und planbares Einkommen aufbauen? Die Antwort lautet: Digitale Souveränität. Deine eigene Website als gehosteter Hub macht dich unabhängig von Algorithmen, Social-Media-„Trends“ und willkürlichen De-Platforming-Risiken.
Die größten Pain Points moderner Creator – und wie du sie löst
Plattform-Abhängigkeit und Algorithmus-Volatilität Ein Großteil der Creator-Einnahmen (insbesondere Brand Deals) entsteht auf Plattformen wie TikTok oder Instagram. Doch schon eine kleine Änderung am Algorithmus, ein Regelverstoß oder auch ein „Shadowban“ – und die Reichweite bricht ein. Im schlimmsten Fall bist du mit einem Klick digital „ausgeschaltet“ – und das Geschäft ist weg.
Deine Lösung: Deine Website ist dein „Owned Media Hub“. Hier kontrollierst du, was veröffentlicht wird, wie du deine Angebote darstellst und wie du mit deiner Community kommunizierst. Kein Algorithmus kann dir die Sichtbarkeit einfach abschalten.
Die Monetarisierungs-Lücke Etwa 70 % der nicht-professionellen Creator-Einnahmen stammen aus Brand Deals – ein volatiler und unsicherer Einkommensstrom. Viele wünschen sich wiederkehrende, planbare Einnahmen, wie Abos, eigene Sales oder Downloads. Auf Plattformen ist das aber oft nur schwer möglich.
Deine Lösung: Mit deiner eigenen Website ebnest du den Weg für verschiedene Monetarisierungsmodelle: Von E-Commerce (physische und digitale Produkte) über Affiliate-Links bis zu eigenen Membership-Bereichen schaffst du dir echte, planbare und unabhängige Einnahmequellen, auf die du dich verlassen kannst.
Rechts- und Compliance-Lasten (Europa) DSGVO, Werbekennzeichnung, Cookies: Wer online in Deutschland/der EU Geld verdient, muss jede Menge Vorschriften einhalten – Fehler führen schnell zu Abmahnungen. Große Creator haben vielleicht eine eigene Rechtsabteilung, Solo-Selbständige und kleinere Teams jedoch nicht.
Deine Lösung: Wenn du auf einen deutschen oder europäischen Hosting-Anbieter wie goneo setzt, profitierst du von Features wie SSL-Zertifikaten, Datenschutz-Konformität und Serverstandort Deutschland. Das macht nicht nur rechtlich, sondern auch für deine Markenwahrnehmung einen echten Unterschied und schützt dich vor Compliance-Fallen.
Die harte Realität der Creator Economy in drei Grafiken: Während Social Media (73,2% Internet-Penetration weltweit laut Meltwater) als Reichweiten-Motor unschlagbar ist, kämpfen 96% der Creator mit Volatilität. Die Einnahmen der Creator-Mittelklasse basieren zu 70% auf Brand Deals – einem unsicheren Strom. Digitale Souveränität ist daher keine Option, sondern eine unternehmerische Notwendigkeit. Die Lösung: Eigene Website als geschützter Hub. Hier kontrollieren Sie Sales, Abos und Daten. Nur so wird aus dem „Creator Side-Hustle“ ein planbares, stabiles Geschäft. #CreatorEconomy #OwnedMedia #Webhosting #goneo #DigitaleSouveränität
Wovon lebt die Creator-Mittelklasse wirklich?
Geld verdienen mit der Website? Nur eine kleine Elite lebt von riesigen Brand Deals. Die große Mehrheit setzt auf andere Standbeine – das zeigt auch die Statistik:
98 % monetarisieren über Affiliate Links (z. B. zu Amazon oder Booking.com)
77 % setzen auf Brand Deals, so wie es ihre Reichweite ermöglicht
Creator in Wissens-, Tech- und Business-Nischen erzielen die höchsten Einkünfte
Sechs von zehn Creatorn bestreiten ihre Aktivitäten neben einem Hauptjob
Wiederkehrende Einnahmen und „digitale Assets“, die nicht von Tagesform und Algorithmus-Launen abhängen, sind die erfolgreichsten Modelle
✨ Fazit: Wer kontrollierte, nachhaltige Earnings anstrebt, muss weg von der kompletten Social-Media-Abhängigkeit – und hin zur eigenen Website als „Central Command“ für Community, Inhalte und Sales.
Deine Website als Brücke zwischen Content und Cash: Die bewährten Monetarisierungsmethoden neu gedacht
1. Affiliate-Marketing & Gesponserte Beiträge
98 % der Creator nutzen es: Durch gutes SEO auf deiner Website generierst du stabilen Traffic und verweist gezielt auf Partnerangebote, an denen du pro Klick oder Kauf mitverdienst.
Affiliate-Blogs, Review-Websites und Ratgeberseiten bieten Unabhängigkeit vom Instagram-Algorithmus.
Social Media wird zum Zubringer – der Kauf oder Abschluss findet auf deiner eigenen Landingpage statt.
Mit goneo + WordPress / WooCommerce kannst du ohne Coding-Skills durchstarten.
Ideal für digitale Produkte: E-Books, Kurse, Presets, Templates, aber auch Merchandise.
Du behältst die komplette Marge – keine Provision an Plattformen!
3. Online-Kurse / Memberships
Teilen von Wissen ist ein lukratives Geschäftsmodell! Besonders in Tech-, Business- und Bildungsnischen entstehen konstante Einnahmen.
Membership-Modelle (z. B. exklusive Inhalte/Fan-Communitys) ermöglichen dir, treue Follower zu zahlenden Unterstützern zu machen.
Und: Du baust eine eigene E-Mail-Liste auf! Im Gegensatz zu Follower-Listen auf Social Media gehört dir der direkte Draht zur Community.
4. Portfolio- und Dienstleistungs-Website
Gerade für Freelancer und Side-Hustler (Design, Videografie, Texte, Beratung): Profitiere von einer professionellen Domain und gebrandeten E-Mail-Adressen (@deinedomain.de).
Zeige deine Referenzen, Angebote – und biete direkte Kontaktmöglichkeiten für Kunden.
Aus der Praxis: Nischen, Spezialisierungen und Erfolgsgeschichten
Jede Nische bietet monetarisierbare Möglichkeiten – gerade mit einer eigenen Website.
Food-Blogs: Verdienen durch Affiliate-Deals mit Küchenmarken, Werbung, Verkauf eigener Rezepte/E-Books oder exklusive Club-Angebote.
Fashion/Travel/Fotografie: Affiliate-Programme, bezahlte Reviews, Zugang zu exklusiven Inhalten, eigene Fotokurse, E-Books.
Fitness, DIY, Beauty: Produktempfehlungen, Plugins für eigene Shops, Tutorials/Videokurse, Mitgliederbereiche.
Finance: Beratung, Affiliate-Deals mit Banken/Versicherungen, exklusive Downloads wie Finanzplaner.
Fazit: Warum dein Webhoster deine Zukunft sichert
Deine eigene Website ist mehr als ein schönes Schaufenster. Sie ist deine unternehmerische Lebensversicherung:
Direkt und unabhängig monetarisierbar
Resilient gegen Algorithmus-Änderungen und Plattform-Abhängigkeiten
Juristisch auf sicherem Boden mit deutschem/europäischem Hosting-Partner wie goneo
Dein nächster Schritt:
Werde digital souverän! Gestalte deine Website als zentralen Geldbringer, sichere dir deine Unabhängigkeit und nutze die Möglichkeiten, die klassische Social-Media-Creator vorenthalten bleiben. Schließe die Compliance-Lücke – mit goneo als deinem Partner für sicheres, flexibles und professionelles Hosting.
👉 Weitere Tipps, Tutorials, Schritt-für-Schritt-Anleitungen findest du unter Know How auf unserer Website.
Wir hoffen, dass dieser Beitrag dir zeigt: Geld verdienen mit Website ist kein Traum für einige wenige – sondern eine Strategie, die wirklich für jeden Creator funktioniert.
Möglicherweise hast du es gestern hautnah mitbekommen: Am Morgen des 20.10.2025 ging plötzlich im Internet nicht mehr viel. Die Messages bei Signal blieben hängen, Zoom verweigerte den Dienst, und selbst deine Lieblings-Krypto-App meldete: Wir sind down, weil der US-Hyperscaler Probleme hat.
Für viele war das ein krasser Schock. Für uns Techniker war es eine weitere, ernüchternde Erinnerung an die Schwäche zentralisierter Systeme.
Am besagten Montagmorgen deutscher Zeit legte ein DNS-Problem in der Infrastruktur eines großen US-Hyperscalers große Teile des Internets lahm. Schau dir das Status-Dashboard an – es listet dann „Operational Issues“ für Dienste auf, die dort gehostet werden. Das klingt technisch (ist es auch) und geradezu harmlos, bedeutet aber: deine virtuellen Maschinen starten nicht mehr, die Datenbanken sind nicht erreichbar. Die Welt des digitalen Business steht in vielen Bereichen still. Das ist ärgerlich, aber na ja, Software und Infrastruktur sind nun mal komplex. Fehler passieren. Die Frage ist, wie du damit umgehst.
Auch Signal war down. Das Problem war nicht die Verschlüsselung. Es lag am Hyperscaler!
Du hast Signal vertraut, weil es für Top-Verschlüsselung steht. Absolut berechtigt. Doch genau das ist der Haken: Die Sicherheit der Verschlüsselung ist nur ein Teil der Gleichung. Wenn der US-Hyperscaler ausfällt, ist der beste Datenschutz irrelevant, weil du die App nicht mal nutzen kannst. Du warst offline, nicht weil deine Nachrichten unsicher waren, sondern weil der zentrale Server nicht erreichbar war. Dieses 1-Klick-Risiko ist real.
Die Schwachstelle: Zentralisierung statt Souveränität.
Die Realität ist: Viele Messenger bieten Top-Verschlüsselung, arbeiten aber zentralisiert. Das heißt: Die gesamte Kommunikation hängt an einem Ort – wahrscheinlich bei einem US-Hyperscaler. Fällt dieser zentrale Server aus, sind alle Nutzer betroffen. Deine Verschlüsselung mag perfekt sein – wie bei Signal. Aber wenn Signal auf diesem Hyperscaler läuft und dessen Region down ist, dann ist der beste Datenschutz irrelevant, weil du die App nicht mal nutzen kannst. Das ist die trügerische Sicherheit des Single Point of Failure (SPOF).
Das 1-Klick-Risiko: Deine digitale Abhängigkeit.
Die Frage ist nicht, ob ein US-Hyperscaler mal ausfällt. Die Frage ist, warum so viele – auch kritische – Dienste, die du und dein Business täglich nutzt, auf genau diesen einen Anbieter setzen. Die Antwort ist pragmatisch: Solche Cloud-Anbieter sind brutal effizient. Sie bieten eine beispiellose Scalability, APIs für fast jeden Usecase und eine Time-to-Market, die lokale Hoster oft nur schwer matchen können. Du kriegst sofort Server-Instanzen, Storage und ML-Dienste mit einem Klick. Convenience ist der Key-Driver der Cloud-Adoption. Aber diese extreme Zentralisierung ist das eigentliche Risiko.
DIE LÖSUNG: Echte Dezentralisierung mit Matrix.
Hier kommt das Matrix-Protokoll ins Spiel. Matrix ist Open Source und wurde genau für diesen Fall entwickelt: Resiliente, dezentrale Kommunikation. Es basiert auf einer Föderation unabhängiger Homeserver. Stell dir vor, deine Kommunikation läuft nicht über einen zentralen Serverpark bei einem US-Hyperscaler, sondern über deinen eigenen Homeserver in einem deutschen Rechenzentrum, der mit Tausenden anderen Homeservern weltweit verbunden ist.
Fällt ein zentraler Big-Tech-Server aus? Klar, das ist ärgerlich, aber dein eigener Homeserver läuft weiter. Deine Kommunikation mit Business-Partnern, die auch einen Matrix-Server betreiben, funktioniert weiter. Das ist Resilienz. Das ist, wenn du die Hoheit über deine Daten und deine Verfügbarkeit behältst. Kommunikations-Souveränität ist kein Buzzword, es ist eine Business Continuity Strategy.
Unabhängigkeit von Big Tech: Deine strategische Autonomie mit goneo.
Genug der Theorie. Wie startest du jetzt mit deiner eigenen Souveränitätsstrategie? Der Next Step ist: Hoste deinen eigenen Matrix-Homeserver (z.B. Synapse).
Der strategische Move ist, diesen Server nicht wieder bei einem der Big Three US-Hyperscaler zu hosten, sondern bei einem lokalen deutschen oder europäischen Hoster – beispielsweise goneo.
Warum goneo (oder ein anderer lokaler Player)?
Rechtsraum: Du operierst primär unter DSGVO und europäischem Recht. Deine Daten bleiben im Inland.
Infrastruktur-Trennung: Du entkoppelst dich von der US-Hyperscaler-Infrastruktur und damit von den DNS-Ausfällen in den großen US-Regionen. Du verhinderst den SPOF.
Kontrolle: Du hast direkten Zugriff auf deine Server-Logs und Server-Konfiguration.
Zentrale Systeme bieten Comfort, aber dezentrale Systeme bieten Kontrolle.
Fazit: Deine digitale Souveränität sichern.
Der Hyperscaler-Ausfall von gestern war ernüchternd und hat uns alle daran erinnert, dass die digitale Infrastruktur fragil ist, wenn sie auf zu wenigen Providern basiert. Es war ein Weckruf.
Es reicht nicht mehr, nur über Ende-zu-Ende-Verschlüsselung zu sprechen. Du musst jetzt über Self-Hosting und Dezentralisierung nachdenken.
Organisationen, die ihre Kommunikation auf einem föderierten Protokoll wie Matrix und einem lokalen Hoster aufbauen, sichern sich gegen globale Ausfälle ab und stärken ihre digitale Souveränität.
Unser Call to Action: Nimm dir die Zeit. Prüfe, wo deine kritische Kommunikation gerade läuft. Dann starte die Planung für deinen eigenen Matrix Homeserver bei goneo. Was hält dich davon ab, echte Resilienz aufzubauen?
Möglicherweise hast du es gestern hautnah mitbekommen: Am Morgen des 20.10.2025 ging plötzlich im Internet nicht mehr viel. Die Messages bei Signal blieben hängen, Zoom verweigerte den Dienst, und selbst die Kryptobörse Coinbase meldete: Wir sind down, weil AWS Probleme hat. Für viele war das ein krasser Schock. Für uns Techniker war es eine weitere Erinnerung an die Schwäche zentralisierter Systeme.
Am besagten Montagmorgen deutscher Zeit legte ein DNS-Problem in der US-EAST-1 Region von Amazon Web Services große Teile des Internets lahm. Schau dir das Status-Dashboard an – es listet dann „Operational Issues“ für Dienste wie Amazon Elastic Compute Cloud (EC2) auf.
Das klingt technisch (ist es auch), geradezu harmlos; bedeutet aber: deine virtuellen Maschinen starten nicht mehr, die Datenbanken sind nicht erreichbar. Die Welt des digitalen Business steht in vielen Bereichen still.
Das ist ärgerlich, aber na ja, Software und Infrastruktur sind nun mal komplex. Fehler passieren.
Das Problem: Warum du den SPOF kaufst
Die Frage ist nicht, ob AWS mal ausfällt. Die Frage ist, warum so viele – kritische – Dienste, die du und dein Business täglich nutzt, auf genau diesen einen Anbieter setzen.
Die Antwort ist pragmatisch: AWS, Azure und Google Cloud sind brutal effizient. Sie bieten eine beispiellose Scalability, APIs für fast jeden Usecase und eine Time-to-Market, die lokale Hoster oft nur schwer matchen können. Du kriegst sofort Server-Instanzen, Storage und ML-Dienste mit einem Klick. Convenience ist der Key-Driver der Cloud-Adoption.
Aber diese extreme Zentralisierung ist das eigentliche Risiko.
Wenn ein einzelner Service Provider ausfällt, dann erwischt es Amazon.com, die Streaming-Plattform Prime Video, deine Lieblings-Krypto-App und den Messenger, dem du für Ende-zu-Ende-Verschlüsselung vertraust. Single Point of Failure in Reinkultur.
Deine Verschlüsselung mag perfekt sein – wie bei Signal. Aber wenn Signal auf AWS läuft und die US-EAST-1 Region down ist, dann ist der beste Datenschutz irrelevant, weil du die App nicht mal nutzen kannst.
Echte Souveränität bedeutet, die Abhängigkeit von Big Tech Cloud zu durchbrechen.
Die Lösung: Echte Dezentralisierung mit Matrix
Hier kommt das Matrix-Protokoll ins Spiel. Matrix ist Open Source und wurde genau für diesen Fall entwickelt: Resiliente, dezentrale Kommunikation. Es basiert auf einer Föderation unabhängiger Homeserver.
Stell dir vor, deine Kommunikation läuft nicht über einen zentralen Serverpark in Virginia (US-EAST-1), sondern über deinen eigenen Homeserver in einem deutschen Rechenzentrum, der mit Tausenden anderen Homeservern weltweit verbunden ist.
Fällt ein zentraler Big-Tech-Server aus? Klar, das ist ärgerlich, aber dein eigener Homeserver läuft weiter.
Deine Kommunikation mit Business-Partnern, die auch einen Matrix-Server betreiben, funktioniert weiter.
Das ist Resilienz. Das ist, wenn du die Hoheit über deine Daten und deine Verfügbarkeit behältst. Kommunikations-Souveränität ist kein Buzzword, es ist eine Business Continuity Strategy.
Praktische Umsetzung: Matrix-Server bei goneo hosten
Genug der Theorie. Wie startest du jetzt mit deiner eigenen Souveränitätsstrategie?
Next Step ist: Hoste deinen eigenen Matrix-Homeserver (z.B. Synapse).
Der strategische Move ist, diesen Server nicht wieder bei einem der Big Three zu hosten, sondern bei einem lokalen deutschen oder europäischen Hoster – beispielsweise goneo.
Warum goneo (oder ein anderer lokaler Player)?
Rechtsraum: Du operierst primär unter DSGVO und europäischem Recht. Deine Daten bleiben im Inland.
Infrastruktur-Trennung: Du entkoppelst dich von der US-Cloud-Infrastruktur und damit von den DNS-Ausfällen in US-EAST-1. Du verhinderst den SPOF.
Kontrolle: Du hast direkten Zugriff auf deine Server-Logs und Server-Konfiguration.
Zentrale Systeme bieten Comfort, aber dezentrale Systeme bieten Kontrolle.
Fazit: Deine digitale Souveränität sichern
Der AWS-Ausfall von gestern war ernüchternd und hat uns alle daran erinnert, dass die digital infrastructure fragil ist, wenn sie auf zu wenigen Providern basiert. Es war ein Weckruf.
Es reicht nicht mehr, nur über Ende-zu-Ende-Verschlüsselung zu sprechen. Du musst jetzt über Self-Hosting und Dezentralisierung nachdenken.
Organisationen, die ihre Kommunikation auf einem föderierten Protokoll wie Matrix und einem lokalen Hoster aufbauen, sichern sich gegen globale Ausfälle ab und stärken ihre digitale Souveränität.
Unser Call to Action: Nimm dir die Zeit. Prüfe, wo deine kritische Kommunikation gerade läuft. Dann starte die Planung für deinen eigenen Matrix Homeserver. Was hält dich davon ab, echte Resilienz aufzubauen?
Du betreibst eine WordPress-Site? Dann pass auf. Die Bedrohungsgruppe UNC5142 nutzt einen echt raffinierten Trick, um ihre Malware zu verteilen, der traditionelle Security-Tools alt aussehen lässt. Die Technik heißt EtherHiding, und sie verlagert den kritischen Teil des Schadcodes von einem leicht abschaltbaren Server auf die Blockchain. Deswegen brauchst du einen WordPress EtherHiding Schutz.
Das Ziel von UNC5142 ist rein finanziell motiviert (was von dieser Gruppe bekannt ist, steht weiter unten): Sie wollen Infostealer wie Atomic, Vidar oder Lumma unters Volk bringen. Diese stehlen dann Zugangsdaten, Passwörter und Krypto-Wallets von den Rechnern Deiner Besucher. Laut Google Threat Intelligence Group (GTIG) haben die Typen schon Tausende anfällige WordPress-Sites wahllos kompromittiert, um sie als Startrampe zu missbrauchen.
Was steckt hinter Smart Contracts und der BNB Smart Chain?
Für das Verständnis dieser Attacke ist der Begriff Smart Contract zentral. Das ist im Grunde ein Code-Snippet, das auf einer Blockchain liegt und autonom läuft.
Stell Dir das wie einen digitalen, unveränderlichen „Vertrag“ vor (den man dummerweise nicht kündigen kann): Er enthält Regeln und führt vordefinierte Aktionen aus, wenn bestimmte Bedingungen erfüllt sind – und das ganz ohne Mittelsmann.
Der Clou ist, dass dieser Code nach dem Deployment nicht einfach abgeschaltet oder zensiert werden kann, solange die Blockchain läuft. UNC5142 nutzt genau diese Resilienz, um den Schadcode darauf abzulegen.
Die BNB Smart Chain (BSC) – eine der größten Blockchains neben Ethereum – dient hier als Hosting-Plattform für diesen bösartigen Smart Contract. Sie bietet die notwendige Infrastruktur und API-Zugänge, die der injizierte JavaScript-Loader braucht, um den Payload abzurufen. Damit wird die BSC effektiv zum dezentralen und extrem beständigen C2-Server.
Offenbar läuft das so ab:
Zuerst bringen die Angreifer den Smart Contract (kann man sich wie gesagt als ein Stück ausführbaren Code vorstellen) auf die BNB Smart Chain. Dieser Code und sein anfänglicher Zustand werden dann auf allen Nodes (also den Computern), die die BSC betreiben, gespeichert. Er ist öffentlich und unveränderlich dort abgelegt.
Wenn der injizierte JavaScript-Loader auf deiner gehackten WordPress-Seite vom Browser eines Besuchers ausgeführt wird, macht er folgendes: Er sendet eine API-Anfrage an die BSC (z.B. über einen Public RPC Endpoint oder einen Node-Provider wie Alchemy oder Infura, die Schnittstellen zur Blockchain bereitstellen).
Diese API-Anfrage ist eine read-only Operation, die den auf der Blockchain gespeicherten Code des Smart Contracts (oder spezifische Daten daraus) abruft. Der Smart Contract selbst wird in diesem Moment nicht „ausgeführt“ im Sinne einer Zustandsänderung. Vielmehr wird sein Code einfach nur aus dem Blockchain-Speicher gelesen.
Der abgerufene Code (der verschlüsselte Payload) wird dann vom JavaScript-Loader im Browser entschlüsselt und ausgeführt, um die eigentliche Malware nachzuladen.
Kernpunkt: Der Smart Contract selbst führt die Malware nicht aus. Die Ausführung des bösartigen Codes (der Infostealer) findet auf dem Opfer-Browser/Computer statt, nachdem er von der Blockchain abgerufen wurde. Der Smart Contract dient als passiver, unveränderlicher Speicherort für den Malware-Payload.
Daher ist den Besitzern des Smart Contracts egal, wie oft der Code gelesen wird. Sie mussten die „Gas Fee“ für die Blockchain nur einmal bezahlen. Das ist ein wichtiger Unterschied zwischen read-only Operationen und write-Operationen auf der Blockchain.
Das Lesen von Daten von einer Blockchain erfordert keine Gas Fees. Es ist wie das Abrufen einer Webseite – es entstehen keine direkten Kosten für den Abruf selbst. Der JavaScript-Loader (und damit der Browser des Opfers) interagiert hier kostenlos mit dem Smart Contract.
Wie funktioniert dieser Blockchain-Tarnkappen-Angriff?
Normalerweise würde man bei einer konventionellen Angriffstaktik einen Command-and-Control-Server (C2) blockieren, und der Angriff wäre vorbei. Aber das EtherHiding hebelt das aus.
Der Einbruch: Zuerst finden die Angreifer eine Schwachstelle in deiner WordPress-Installation – oft ein veraltetes Plugin oder Theme. Sie injizieren dann einen winzigen, unauffälligen JavaScript-Code-Loader (genannt CLEARSHORT Stage 1) entweder in Plugin-Dateien, Theme-Files oder direkt in die Datenbank.
Der Abruf (Der Clou): Wenn ein Besucher Deine Seite lädt, führt sein Browser diesen Code aus. Aber anstatt einen herkömmlichen Server zu kontaktieren, fragt der Code über eine Standard-API den bösartigen Smart Contract auf der BSC ab.
Die Ausführung: Die Blockchain liefert dann den eigentlichen, verschleierten Payload. Dieser wird ausgeführt und lädt die finale Malware (den Infostealer) nach. Oft wird das Ganze als Fake-Update-Meldung für den Browser getarnt (ClickFix oder ClearFake).
Weil der Schadcode dezentral auf der Blockchain liegt, kann er quasi nicht abgeschaltet werden. Faszinierend, wie schnell die Threat Actors neue Tech adaptieren. Hier ist einge grafische Dartsellung der Funktionsweise:
Infografik zur EtherHiding Attack Chain von UNC5142: Diese Darstellung zeigt den dreistufigen Angriffsprozess, bei dem Malware über kompromittierte WordPress-Sites verbreitet und der Payload dezentral auf der BNB Smart Chain versteckt wird. Außerdem sind die wichtigsten Schutzmaßnahmen aufgeführt, um Deine Website zu sichern. (Quelle: GTIG / Google Threat Intelligence Group)
🛡️ Dein Protection-Plan: Die Entry-Points dichtmachen!
Die gute Nachricht ist: Der Angriff beginnt immer mit einem erfolgreichen Initial-Access auf Deiner WordPress-Site. Wenn Du diesen ersten Schritt verhinderst, kann die EtherHiding-Technik machen, was sie will – sie bleibt wirkungslos. So gewinnen wir den Ansatz für einen WordPress EtherHiding Schutz.
Hier sind die Must-Haves für Deine Security-Strategie (Quelle: Eigene Analyse der Google-Erkenntnisse und Security-Best-Practices):
1. Patching ist nicht optional – es ist ein Muss
UNC5142 visiert verwundbare Sites an. Delayed Updates sind das größte Risiko.
Core, Themes & Plugins: Halte wirklich alles, alles, alles auf dem neuesten Stand. Jede verzögerte Aktualisierung ist ein offenes Tor für Exploits.
2. Access Control härten
Keine Chance für Brute-Force und gestohlene Credentials.
Starke Passwörter: Einzigartige, komplexe Passwörter für Admin und DB-Zugänge sind Standard.
2FA (Zwei-Faktor-Authentifizierung): Aktiviere 2FA für jeden WordPress-Login. Das ist der effektivste Schutz gegen gestohlene oder erratene Passwörter.
3. Defense-in-Depth mit Security-Tools
Du brauchst einen Layer zur Intrusion Detection. Das dienst auch als WordPress EtherHiding Schutz.
Security-Plugin: Installiere ein robustes Security-Plugin (wie Wordfence oder Sucuri). Wichtig ist, dass diese Tools File-Integrity prüfen und auf verdächtiges, neu eingefügtes JavaScript im Theme-Header/Footer oder der Datenbank aufmerksam machen.
CSP (Content Security Policy): Ein Content Security Policy Header kann verhindern, dass Deine Seite Code von externen, nicht autorisierten Quellen (wie der BNB Smart Chain) nachlädt. Das ist ein Advanced-Defense-Layer, den Du Dir mal genauer anschauen solltest.
4. Monitoring und Auditing
Du musst wissen, was auf Deiner Site passiert.
Regelmäßiges Code-Scanning: Scanne Deine Dateien und Datenbank-Einträge nach unerwartetem, kurzen JavaScript-Code oder verdächtigen Iframes. Insbesondere Injektionen in header.php, footer.php oder Plugin-Dateien sind rote Flaggen.
Fazit: WordPress EtherHiding Schutz
EtherHiding ist so etwas wie ein Game Changer in der Cyber-Security-Welt, weil es zeigt, wie dezentrale Tech zum Problem werden kann. Es macht die Takedown-Strategie von Security-Teams extrem schwierig. Bisher konnte man da ganz gut ansetzen: Man musst „nur“ den Betreiber des Servers über die IP-Adresse finden und im einfachsten Fall eine nette Abuse-Mitteilung senden.
Für dich als WordPress-Betreiber bedeutet das aber im Prinzip: Die Security-Basics sind jetzt wichtiger denn je. Vernachlässige Deinen Wartungs-Workflow nicht. Patching und Access Control sind Dein MVP gegen diese Next-Gen-Threats.
Was denkst Du dazu? Hast du deine WordPress-Installation schon auf eine CSP umgestellt, um solche externen Code-Loads zu blocken, oder setzt du primär auf Scanner?
Wer ist UNC5142?
UNC5142 ist in der Cyber-Security-Community definitiv bekannt, aber vielleicht nicht so im breiten Public-Eye wie andere, spektakulärere Gruppen. Das ist typisch für Gruppen, die primär finanziell motiviert sind und sich auf Massen-Compromise und Malware-Distribution spezialisiert haben, statt auf Nation-State-Attacks.
Hier sind die Key Facts zur Bekanntheit von UNC5142 (Quelle: Google Threat Intelligence Group (GTIG) und Mandiant):
Im Fokus der Threat Intelligence: Die Gruppe ist den großen Security-Forschern und Threat Intelligence Teams wie Google/Mandiant sehr gut bekannt. Sie haben der Gruppe auch diesen internen Tracking-Code UNC5142 (steht für Uncategorized Threat Group) gegeben. Die Tatsache, dass Google dazu einen detaillierten Report veröffentlicht hat, unterstreicht, dass sie als ernstzunehmende Bedrohung eingestuft wird.
Spezialisten für EtherHiding: Sie wurden bekannt durch die aggressive Adaption und den Einsatz der EtherHiding-Technik (die ursprünglich 2023 von Guardio Labs dokumentiert wurde). Das hat ihre Reputation in der Security-Welt als innovative und resiliente Gruppe etabliert, die Web3-Tech für Web2-Angriffe nutzt.
Hohe Opferzahl, aber unspezifisch: Bis Juni 2025 wurden laut Google rund 14.000 kompromittierte WordPress-Seiten identifiziert, die JavaScript mit dem UNC5142-Verhalten aufwiesen. Das ist eine massive Zahl, was die Reichweite der Gruppe beweist. Die Angriffe sind aber oft indiscriminate (wahllos) gegen anfällige WordPress-Sites gerichtet, was sie eher zu einem Volume-Player im Malware-Distribution-Geschäft macht.
Verbindung zu ClearFake: Sie werden auch oft in Verbindung mit der ClearFake-Kampagne gebracht, die für die gefälschten Browser-Update-Pop-ups bekannt ist. Das zeigt, dass sie Teil eines größeren Malware-Ökosystems sind.
Aktueller Status – Ein Rätsel: GTIG hat keine UNC5142-Aktivität mehr seit Juli 2025 festgestellt. Das ist ein krasser Stopp. Das kann entweder bedeuten, dass sie aufgehört haben, oder – wahrscheinlicher – dass sie einen Operational Pivot gemacht und ihre TTPs (Tactics, Techniques, and Procedures) so verändert haben, dass sie aktuell von den Trackern nicht mehr erfasst werden. Sie sind also entweder weg vom Fenster oder gerade dabei, ein noch stealthyeres Attack-Schema zu deployen.
Vor einigen Wochen haben wir unser Kundencenter modernisiert, um es für euch übersichtlicher, schneller und intuitiver zu gestalten. Um zu erfahren, wie die Neuerungen bei euch ankommen, haben wir euch um Feedback gebeten – und eure Antworten haben uns überwältigt.
Ein riesiges Dankeschön an alle, die an unserer Umfrage teilgenommen haben! Eure ehrlichen Meinungen und wertvollen Anregungen sind für uns nicht nur eine Bestätigung, sondern auch der wichtigste Kompass für die Zukunft. Heute möchten wir die Ergebnisse mit euch teilen.
Das goneo-Kundcenter ist der zentrale Anlaufpunkt im Netz für Kunden von goneo, die Einstellungen für Webhosting, Domain oder E-Mail vornehmen. Allgemein bezeichnet man solche Weboberflächen als Panel. Das von goneo ist unter https://kundencenter.goneo.de erreichbar.
Ein klares Urteil: Design erfolgreich
Die zentrale Frage war natürlich: Wie gefällt euch das neue Kundencenter? Die Antwort könnte kaum deutlicher ausfallen. Wichtige Kernfunktionen erhalten von euch durchweg hervorragende Bewertungen.
Um das Ganze noch greifbarer zu machen, hier ein paar der Top-Ergebnisse im Detail
Bewerteter Bereich
Durchschnittsnote (von 5)
Anteil sehr zufriedener Kunden (Note 4 oder 5)
Übersicht & Navigation
4,37
67 %
Nützlichkeit des Dashboards
4,38
65 %
Neue Speicherplatz-Anzeige
4,37
63 %
Besonders das neue Dashboard als zentrale Anlaufstelle wird von euch als sehr nützlich empfunden. Auch die grafische Aufbereitung von Daten, wie etwa die Anzeige des verbrauchten Speicherplatzes, wird als deutliche Verbesserung wahrgenommen.
Eure Kommentare wie „Alles auf einen Blick“, „Sehr viel leichteres und klareres UI“ oder „Bessere Gesamtübersicht und gleichzeitig einfach gehalten“ zeigen uns, dass wir unser Hauptziel erreicht haben: Komplexität zu reduzieren und euch die Verwaltung eurer Produkte so einfach wie möglich zu machen.
Loyalität: Euer Vertrauen ist unsere größte Auszeichnung
Neben dem Feedback zum Design wollten wir auch wissen, wie loyal ihr goneo gegenübersteht. Dafür haben wir den Net Promoter Score (NPS) ermittelt, eine weltweit anerkannte Kennzahl, die auf einer einfachen Frage basiert: „Wie wahrscheinlich ist es, dass Sie goneo einem Freund oder Kollegen weiterempfehlen würden?“
Das Ergebnis ist für uns die schönste Bestätigung unserer Arbeit: goneo erreicht einen Net Promoter Score von +73.
Um diesen Wert einzuordnen: Ein NPS über 50 gilt in der Tech-Branche bereits als exzellent. Damit liegen wir mehr als deutlich über dem Branchendurchschnitt für Cloud- & Hosting-Anbieter (ca. +37 bis +60) und positionieren uns an der Spitze, wenn es um Kundenzufriedenheit und -loyalität geht.
Dieses Ergebnis macht uns unglaublich stolz. Es zeigt das riesige Vertrauen, das ihr uns entgegenbringt – viele von euch schon seit über einem Jahrzehnt, wie wir aus euren Kommentaren wissen.
Euer Feedback gestaltet die Zukunft von goneo
Neben dem vielen Lob habt ihr uns auch unglaublich wertvolle und konstruktive Vorschläge mit auf den Weg gegeben. Ihr habt uns gezeigt, wo wir noch besser werden können, welche Funktionen ihr euch für die Zukunft wünscht und wie wir die Arbeitsabläufe für erfahrene Nutzer noch weiter optimieren können.
Seid versichert: Wir haben jeden einzelnen Kommentar sorgfältig ausgewertet. Eure Ideen und Wünsche fließen direkt in die Planung unserer nächsten Entwicklungsschritte ein. Denn unser Ziel ist es, nicht nur ein sehr gutes Produkt zu liefern, sondern eines, das eure Anforderungen perfekt erfüllt.
Nochmals vielen Dank für eure Zeit, euer Vertrauen und eure Treue. Gemeinsam mit euch werden wir goneo jeden Tag ein Stückchen besser machen.
Wozu brauchst du eine Domain? Unsere Antwort gibt’s heute als Song!
Hand aufs Herz: Wenn du an den Begriff „Domain“ denkst, was kommt dir in den Sinn? Technische Details, DNS-Einträge, komplizierte Prozesse? Das muss nicht sein! Wir bei goneo sind überzeugt, dass die Grundlagen des Internets für jeden verständlich sein sollten – und dass das Ganze sogar Spaß machen darf.
Mein Schnäppchen-Gen nervt – aber warum muss meine Wunschdomain eigentlich gleich so teuer sein? 🤔
Mal ehrlich, Hand aufs Herz – bist du auch so ein Sparfuchs wie ich? Ich liebe günstige Lösungen, die richtig was können und lange laufen. Kein Bock auf unnötige Kosten für irgendwas in der Cloud, was ich dann sowieso nie nutze. Gerade wer seine Webseite allein aufzieht und DIY-mäßig durchstarten will, achtet sowas von auf jeden Cent, und man fragt sich schon: Wieso kostet eine Domain-Endung manchmal so wenig (fast wie’n Kaugummi am Kiosk), und bei anderen schauen dich fette Preisschilder an, als hättest du aus Versehen einen Ferrari im Shop ausgewählt?
Genau das klären wir hier – ausführlich, verständlich und mit allen Infos, die du am Anfang brauchst. Wir erklären, wie Domainpreise wirklich entstehen (und warum die Preisschilder nicht einfach ausgewürfelt sind). Damit du smart und preisbewusst deine nächste Domain auswählst und nicht in die Kostenfalle tappst! #KnowHow #NoFront
1. Was ist überhaupt eine Domain und wie läuft das mit den gTLDs? Das 1×1 für Einsteiger ✏️
Ganz fix für’s Grundverständnis und weil wir ja alle irgendwo mal starten: Eine Domain ist, was du ins Browserfenster haust, um auf eine Webseite zu kommen, z.B. goneo.de oder meinalpaka.shop. Sie besteht aus:
Top Level Domain (TLD): Das ist der Teil rechts vom Punkt – z.B. .de, .com, .net, .shop, .xyz usw.
Second Level Domain: Das steht davor, z.B. „goneo“ oder „meinalpaka“.
Was sind jetzt „gTLDs“? Das steht für „generic Top Level Domains“ – das sind alle Endungen, die nicht an ein Land gekoppelt sind (.com, .online, .app usw.). Und hier beginnt das Chaos, denn seit ein paar Jahren gibt’s hundertfach neue gTLDs, die den Markt für Domainendungen schon ein bisschen aufgemischt haben!
2. Wer entscheidet eigentlich, was eine Domain kostet? Spoiler: Nicht der Hausmeister 😅
Es gab Zeiten, da war .de fast alternativlos und brutal günstig. Heute prasselt ein ganzer Domainendungszirkus auf dich ein. Und jetzt kommt’s: Den Preis deiner Wunschdomain machen mindestens drei Stellen zusammen aus. Der Überblick:
Stufe 1: Die Registry (Vergabestelle)
Das ist die Firma/Organisation, die eine bestimmte Endung betreibt – „DENIC“ für .de, „Verisign“ für .com, „Google“ für .app, viele weitere für hunderte neue gTLDs wie .shop, .online usw. Das meistens for-profits. Heißt: Diese Firmen wollen (und müssen) Geld verdienen. Jede Registry legt fest: „Das ist unser Basispreis. Darunter läuft nix.” Hier geht es zur Website der Denic.
Stufe 2: Der Registrar (Handelspartner für Endkunden)
Hier kommt jetzt goneo ins Spiel (oder vergleichbare Anbieter): Wir kaufen die Domains von den Registries zu deren Preis ein, packen Support, technische Verwaltung, Verwaltungskram usw. dazu – und legen unseren Endpreis für dich fest.
Stufe 3: Der Endpreis für dich
Hier summiert sich alles: Die Basisgebühr der Registry, unser Service, ggf. Features wie DNS, Domain-Editor usw. Und hey – Steuern gibt’s obendrauf, an denen führt kein Weg dran vorbei.
3. Was treibt die Domain Preise nach oben oder unten? Das sind die echten Gründe 🕵️
Gleich vorweg: Die Registry besitzt jede Menge Macht. #RealTalk Die wichtigsten Faktoren für teure oder günstige Domains:
a) Die Registry-Strategie – Discount oder Exklusiv-Marketing
Will die Registry ihr Produkt massentauglich machen (wie .com, .de), liegt der Basistarif niedrig, oft einstellige Euros pro Jahr. Will sie exklusiv oder nischig wirken – z.B. bei .luxury, .rich, .law, .bank – wird’s teurer.
💡 Tipp: Solche ultra-speziellen Endungen lohnen sich wirklich nur, wenn du extra aus der Masse rausstechen willst oder zwingend so etwas brauchst (z.B. als Anwaltskanzlei .law).
b) Angebot und Nachfrage: Digitalisierung, Trendwellen und „First Come, First Serve“
Was heiß begehrt ist, wird teurer verkauft. Siehst du gut z.B. bei .shop – klassische Corona-Gewinnerendung – oder .app, weil die einfach „fresh“ rüberkommt.
Eine knappe, sprechende Domain wie „pizza.shop“ ist halt geiler als „besterpizzalieferantzürich.shop“ – und sowas checken die Registries und ballern Premiumpreise drauf, teils astronomisch.
c) Technische, rechtliche und Sicherheits-Anforderungen
Manche Registerträger pochen auf Sicherheitskonzepte – z.B. bei .bank oder .pharmacy werden Köpfe gezählt, Ausweise geprüft, Zertifikate verlangt… und der ganze Spaß kostet extra. Du brauchst das? Dann leiden leider Portemonnaie und Nerven.
Nicht jede Domain unter einer fancy Endung kostet das Gleiche! Domain Preise sind sehr variabel.
Standarddomain: Hat keine besondere Relevanz, günstig(er).
Premiumdomain: Knappe, catchige Namen (oft generische Begriffe) kosten richtig Schotter – manchmal mehrere Tausender pro Jahr!
Anbieter schalten auch Lockvogel-Angebote: Ein Jahr super billig, dann zack – Wechsel auf normalen (höheren) Jahrespreis. Auf Rabattaktionen zu achten, zahlt sich aus, aber Augen auf bei der Verlängerung!
e) Verwaltungsaufwand: Weil Service Zeit und Leute kostet
Domains brauchen Pflege, Updates, Schnittstellen, Support, Schutz vor fiesen Hackern – und dafür nehmen Provider natürlich ihr Entgelt. Wir auch.
f) Steuern, Gebühren, Währungen – das läppert sich
Entwickelt sich der Dollarkurs wild, spürst du das je nach Endung auch. Plus: Deutsche Umsatzsteuer obendrauf, klar.
4. Warum sind klassische Endungen billiger als hippe neue? .de for the win!? 📉
Das hat Tradition & Masse auf seiner Seite – und Massengeschäft drückt auch Domain Preise. Nimm .de, .com, .net: Die gibt‘s seit den 90ern in Massen für alle. Neue gTLDs ab 2013 müssen erstmal ihre Entwicklungskosten reinholen, werden markanter vermarktet („Schau her, Domain mit Personality!“), und viele andere Endungen sollen besonders „besonders“ wirken – mit Preisschildern, die sich gewaschen haben. Zudem sind bei den neuen Endungen weniger Domains registriert – also weniger Einnahmen, also müssen die Preise pro Stück hochschießen. Circle of (Web-)life.
5. DIY-Praktiker-FAQ: Worauf muss ich beim Domainkauf als Webseiten-Newbie achten?
💰 1. Check’ die jährlichen Kosten!
Manche Anbieter locken mit „1€ im ersten Jahr!“. Klingt sexy, aber dann kostet’s im zweiten Jahr plötzlich 20, 30 oder mehr Euro. Also: Achtung auf Verlängerungsgebühren! goneo z.B. zeigt immer direkt den Normalpreis.
📋 2. Vergleiche Funktionen bei verschiedenen Tarifen
Mancher Anbieter verschenkt Features wie DNS-Verwaltung, E-Mail-Weiterleitung oder Privacy, bei anderen kostet’s extra. Nicht verwirren lassen – alles kurz vergleichen!
🏷️ 3. Premiumdomain? Prüfen!
Dein knackiger Domainname könnte als Premiumdomain geführt werden. Das steht schon im Bestellprozess (und nicht erst im Kleingedruckten – Promise!).
🏠 4. Umziehen geht fast immer, aber spare clever!
Wenn deine Wunschdomain echt teuer, aber bei goneo günstiger ist, kannst du oft wirtschaftlich und problemlos umziehen (Domain-Transfer). Aber häufig fallen dabei Transfergebühren oder ein weiteres Jahr Vorauszahlung an – lies dir vorher die Bedingungen durch! Wir bei goneo nehmen keine Transfergebühren. Du zahlst den Preis so als wäre es eine Neuregistrierung.
🤓 5. Welche Domain ist am Ende die richtige?
Für Sprinter: Nutze klassische Endungen (.de, .com) für günstige, vertrauensvolle Standardprojekte. Neue gTLDs (.shop, .blog, .app) geben deinem Projekt eine Personality, kosten aber ggf. mehr – check also das Budget.
6. Konkrete Preisschau: Wie teuer ist was? Realitätscheck anhand echter Zahlen 🥸
Endung
Ca. Domain Preise
Kurzgesagt
.de
0,49 € pro Monat
Bestes Preis-Leistungs-Verhältnis für Sparfüchse 🦊
.com
1,99 € pro Monat
Der Klassiker & Allrounder
.shop
3,99 € pro Monat
E-Commerce-King, aber nicht ohne Preis!
.app
20 bis 32 € pro Jahr (nicht bei goneo registrierbar)
Modern & catchy, aber nicht billig
.info
2,46 € pro Monat
Günstige Alternative für Wissensthemen
.luxury
650 bis 1.100€ pro Jahr (nicht bei goneo registrierbar)
Nur für „Rich Kids“ 😉
.bank
>1.000 € pro Jahr (nicht bei goneo verfügbar)
Sicherheit & Exklusivität – das bezahlt man
.photography
5,47 € pro Monat
Kreative Branche, mittleres Preislevel
Diese Preise sind vom Stand Oktober 2025 bei goneo oder Schätzungen für Endkund:innen (2025), die je nach Anbieter günstiger sein können. Diese haben wir gar nicht im Angebot, weil die Registrierung nicht für jedermann einfach möglich ist. Bei goneo kommen an Anfang 1,00 Euro einmalig on top, wenn dies eine zusätzliche Domain ist und nicht im Paket inklusive ist. Specials (eventuelle Rabtte) nicht drin!
7. Rechenbeispiel: Was kostet mein DIY-Blog/Shop fünf Jahre lang?
Stell’ dir vor, du gründest den Shop „alpaka.shop“ oder startest den Foodblog „kaffeesahne.de“.
kaffeesahne.de: 5,88 € pro Jahr x 5 + 1,99€ einmalig = 31,39 € Hostingkosten für den Domainpart in fünf Jahren.
alpaka.shop: 39,87 € pro Jahr x 5 +1,99 € einmalig = 241,39 €. —> Da geht schon deutlich mehr Geld über den Tisch.
Jetzt: Multiplizierst du das mit mehreren Domains, E-Mail, Features etc., ist ein klarer Kostenüberblick Pflicht. Preisfalle, lass nach! 🤯
8. Entscheidungshilfe: So findest du deine perfekte Domain zum besten Domain Preis 💡
Plane langfristig: Sieh dir nicht nur das Startjahr an – sondern rechne für mindestens drei bis fünf Jahre.
Vergleiche die Endungen: Ist die .de oder .com-Variante günstiger & ausreichend? Muss es wirklich .shop oder .online sein?
Mehrwert versus Preis: Neue Endung, mehr Personality oder Branding-Vorteil? Dann gönn sie dir, wenn’s Budget passt.
Vorsicht bei Sonderaktionen: Wenn dir jemand für unter einen Euro Domains nachwirft, immer nach Verlängerungsbedingungen und Zusatzkosten schauen!
Funktionen prüfen: Datenschutz, DNS, Transferoptionen – was brauchst du, was bekommst du?
9. Fazit: Mit cleverer Wahl zur günstigen DIY-Domain 😎
Zusammengefasst: Domains sind verschieden teuer, weil jede Endung von einer eigenen Firma gemanagt, unterschiedlich vermarktet, unterschiedlich genutzt & technisch verschieden gewartet wird. Den Preis bestimmt daher nicht nur „irgendwer“ – sondern ein Mix aus Markt, Strategie, Technik und Service. Als DIY-Webseitenstarter solltest du:
Überblick über laufende Kosten behalten,
Endungen vergleichen,
und auf mögliche Preis-Fallen achten!
Oldschool-Endungen wie .de oder .com sind für Einsteiger mit Sparambitionen oft top. Willst du im E-Commerce mehr Persönlichkeit oder Branding rausholen, bist du mit .shop oder .online auch richtig – nur musst du dann auch das Extrageld einplanen.
Neugierig, was deine Wunschdomain bei goneo kostet? Check unsere Domainpreisliste und finde es direkt raus – und, safe, ohne Überraschungen und mit vollem Support!
Viel Spaß beim Ausprobieren – und Kuss geht raus an alle DIY-Held:innen, die den Domainmarkt jetzt endlich costwise durchblicken! 😎🚀
Stellt euch vor, eure Website ist wie euer eigenes Zuhause. Ihr habt die Tür geöffnet. Freunde und Familie sind willkommen. Doch auch ungebetene Gäste, die du nicht eingeladen hast, strömen herein, durchstöbern eure Schränke, nehmen sich Snacks, hinterlassen Chaos.
Genau so benehmen sich Webcrawler und Bots auf eurer Website.
Webcrawler sind automatisierte Programme, die euere Serverressourcen auffressen. Das kann Ladezeiten in die Höhe treiben und echte Besucher vergraulen.
Wollt ihr etwas dagegen tun? Wir haben praktische Tipps für euch, um digitale Störenfriede in Schach zu halten.
Was sind Bots oder Crawler überhaupt?
Bots oder Crawler sind Software-„Roboter“, die ohne menschliches Zutun durchs Internet streifen.
Sie besuchen Websites, interagieren mit Inhalten und führen auch selbsttätig Aufgaben aus. Das ist im einfachsten Fall ein virtueller Klick auf einen Menüpunkt, kann aber auch eine Suche auf der Website sein.
Einige sind nützlich, wie die Crawler von klassischen Suchmaschinen, die eure Seite indexieren und euch in den Suchergebnissen nach oben bringen.
Andere Crawler sind weniger freundlich und können eure Inhalte klauen, Spam verbreiten oder Sicherheitslücken ausnutzen.
Gute Bots, böse Bots
Versuchen wir mal, Gut und Böse zu unterscheiden:
Die Guten:
Suchmaschinen-Crawler Wie der Googlebot oder Bingbot, die eure Seite indexieren und für Sichtbarkeit sorgen. Das heißt: Somit gelangt euere Website in die Suchergebnisse einer Suchmaschine.
Auditing-Bots Sie sammeln wertvolle Daten über die Performance eurer Website, z.B. der Google Pagespeed Insights-Bot. Die Daten braucht ihr, wenn ihr wissen wollt, ob euere Seite gute Erfahrungen bei eueren Nutzern erzeugt.
Die Bösen:
Content-Scraper Sie klauen eure Inhalte und kopieren sie, um sie anderswo zu verwenden.
Spam-Bots: Diese fluten eure Formulare und Kommentarbereiche mit Müll, in denen meist ein Link eingebaut ist.
Hacker-Bots Diese Art versucht, Sicherheitslücken zu finden und auszunutzen. Ziel ist, unbefugten Zugriff zu erlangen.
Welche Anzeichen für Bot-Aktivitäten auf eurer Website gibt es?
Bevor wir zu den Lösungen kommen, solltet ihr wissen, woran ihr unerwünschte Bot-Aktivitäten erkennt:
Plötzliche Traffic-Spitzen Ein Anstieg der Besucherzahlen ohne entsprechenden Anstieg der Interaktionen oder Verkäufe.
Langsame Ladezeiten Eure Seite lädt plötzlich langsamer, was echte Besucher abschrecken kann.
Hohe Absprungraten Wenn Nutzer eure Seite schnell wieder verlassen, könnte das an Bots liegen.
Ungewöhnliche Sitzungsmuster Besucher, die nur für Millisekunden bleiben oder stundenlang auf einer Seite verweilen.
Formulareingaben mit zufälligem Text: Ein klares Zeichen für Spam-Bots – woher soll der Müll sonst kommen?
Wie könnt ihr Bots den Zugang zur Website verweigern?
Der spannende Teil. Hier sind einige effektive Methoden, um unerwünschte Bots fernzuhalten
1. robots.txt-Datei erstellen
Die robots.txt-Datei ist wie ein Türsteher für eure Website, nur ehrlich gesagt, nicht ganz so mächtig. Die Datei robots.txt teilt Bots mit, welche Bereiche sie betreten dürfen und welche nicht.
So erstellst du eine robots.txt-Datei
Texteditor öffnen Verwendet einen einfachen Texteditor wie Notepad (Windows), Notepad++ oder TextEdit (Mac OS).
Anweisungen hinzufügen
Fügt folgende Zeilen ein:
# Blockiert BadBot vom gesamten Zugriff auf die Website
User-agent: BadBot
Disallow: /
# Blockiert EvilScraper vom gesamten Zugriff auf die Website
User-agent: EvilScraper
Disallow: /
# Standard-Regel für alle anderen Bots (z.B. Googlebot, Bingbot).
# Alle anderen werden standardmäßig erlaubt.
User-agent: *
Disallow:
Datei speichern: Speichert die Datei als robots.txt und zwar exakt unter diesem Namen.
Datei hochladen: Ladet die Datei ins Stammverzeichnis eurer Website hoch, sodass sie unter https://www.eure-domain.de/robots.txt erreichbar ist.
Testet dies. Im Browser sollten die Zeile als reiner Text erscheinen, aber keine 404-Fehlermeldung.
Achtung: Nicht alle Bots halten sich an die robots.txt. Bösewichte ignorieren sie oft. Du kannst keinen Bot damit wirklich zwingen, die Seite zu besuchen und Aktionen auszuführen.
2. .htaccess-Datei anpassen
Bei Servern, die für Webhosting verwendet werden, gibt es eine Möglichkeit, festzulegen, wie sich die Software auf dem Server verhalten soll. Das kann man als Webhosting-Kunde mit einer Datei steuern, die sich .htaccess nennt.
Mit den richtigen Anweisungen in der .htaccess-Datei könnt ihr bestimmten Bots oder IP-Adressen den Zugriff komplett verweigern.
Die seltsam wirkende Schreibweise mit dem Punkt vor dem Dateinamen kommt aus der Linux-Welt. Dateien mit einem vorangestellten Punkt im Namen lassen sich in FTP-Software verbergen und signalisieren, dass es sich um eine Art Steuerdatei handelt, die von der Serversoftware verarbeitet werden kann. Bei goneo kommt dafür Apache 2 zum Einsatz. Kleine Fußnote: Euer Server, falls ihr nicht bei goneo hostet, sollte AllowOverrideAll gesetzt haben, sonst funktioniert das nicht.
So geht’s:
Zugriff auf die .htaccess Verbindet euch per FTP mit eurem Server und navigiert zum Stammverzeichnis eurer Website. Falls die .htaccess-Datei nicht sichtbar ist, stellt sicher, dass euer FTP-Client auch versteckte Dateien anzeigt. Das kann man in der Konfiguration der Software vornehmen.
Datei bearbeiten Öffnet die .htaccess-Datei mit einem Texteditor.
Anweisungen hinzufügen Um einen bestimmten User-Agent zu blockieren, fügt folgende Zeilen hinzu:
## User Agent Blockierung
RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} ^BoeserBot [NC]
RewriteRule ^ - [F,L]
Ersetzt „BoeserBot“ durch den Namen des Bots, den ihr blockieren möchtet. Die Anweisungen folgen der Apache 2.4+ Syntax. Order/Deny gilt als veraltet.
IP-Adresse blockieren Um eine bestimmte IP-Adresse zu blockieren, fügt hinzu: <RequireAll> Require all granted Require not ip 123.456.789.000 </RequireAll>
Ersetzt „123.456.789.000“ durch die zu blockierende IP-Adresse.
Datei speichern und hochladen Speichert die Änderungen und ladet die Datei zurück auf den Server.
Ein Hinweis: Bitte seid vorsichtig mit Änderungen an der .htaccess, da Fehler eure Website unzugänglich machen können. Hebt auf jeden Fall eine Kopie auf.
Nun stellt sich noch die Frage: Wie erfährt man die Namen der Bots oder die IP-Adresse eines Crawlers? Darüber geben die Log-Dateien Auskunft.
Anmeldung bei einem CAPTCHA-Dienst: Registriert euch bei einem Dienst wie Google reCAPTCHA.
Code integrieren: Fügt den bereitgestellten Code in eure Formulare ein.
Tipp: Moderne unsichtbare CAPTCHAs arbeiten im Hintergrund und stören echte Nutzer nicht.
4. Unerwünschte Anfragen blockieren und Ausnahmen definieren (mit .htaccess)
Ein echtes Rate Limiting (X Anfragen pro Y Sekunden) wäre fein, aber über die .htaccess ist allein ohne spezielle Apache-Module (wie mod_qos) so etwas nicht möglich. Ihr könnt stattdessen eine Logik implementieren, um verdächtige Anfragen komplett zu blockieren.
Erlaube zunächst alle harmlosen Dateien (Bilder, CSS, JS).
Erlaube alle „guten“ Crawler (Googlebot, Bingbot).
Blockiere alles andere, was nicht von einem „guten“ Bot kommt und keine statische Datei ist.
Auch diese Verhinderungsregel gilt für die Apache2-Serversoftware wie sie bei goneo verwendet wird:
RewriteEngine On
# 1. Bedingung: Nur Anfragen, die NICHT auf eine Dateiendung (css, js, etc.) enden.
RewriteCond %{REQUEST_URI} !(\.css|\.js|\.png|\.jpg|\.gif|robots\.txt)$ [NC]
# 2. Bedingung: User Agent ist NICHT Googlebot
RewriteCond %{HTTP_USER_AGENT} !^Googlebot [NC]
# 3. Bedingung: User Agent ist NICHT Bingbot
RewriteCond %{HTTP_USER_AGENT} !^Bingbot [NC]
# AKTION: Wenn alle Bedingungen erfüllt sind, den Zugriff verbieten (403 Forbidden)
RewriteRule .* - [F,L]
Wichtig:Diese Direktive in diesem Beispiel ist sehr aggressiv! Sie verbietet den Zugriff auf alle euere HTML-Seiten für jeden Besucher, dessen User Agent nicht als Googlebot oder Bingbot bekannt ist (und der keine statische Datei anfordert). Ihr solltet diesen Code nur verwenden, wenn ihr ganz genau wisst, welche Bots ihr zulassen und welche ihr ausschließen wollt.
5. Bot-Management-Tools
Es gibt spezialisierte Tools, die dabei helfen, unerwünschte Bots zu erkennen und zu blockieren.Dabei handelt es sich meist um externe Dienste, die vielleicht auch in einem „Drittland“ realisiert werden. Damit stellen sich Fragen hinsichtlich des Datenschutzes und der Datensouveränität.
Dennoch kann das Vorteile haben:
Echtzeit-Überwachung und Schutz.
Anpassbare Regeln für spezifische Bedrohungen.
Ein neuer „Türsteher“ für KI-Modelle: Die llms.txt
Die Welt der Bots und Crawler entwickelt sich rasant weiter. Mit dem Aufkommen großer Sprachmodelle (LLMs) und generativer KI entsand eine neue Art von „Besuchern“ auf eurer Website, die ebenfalls eure Inhalte nutzen möchten – sei es zum Training oder zur Beantwortung von Benutzeranfragen.
Hier kommt die noch recht neue llms.txt-Datei ins Spiel. Ähnlich wie die robots.txt soll sie KI-Modellen mitteilen, welche Inhalte sie zum Lernen oder zur Verarbeitung nutzen dürfen und welche nicht. Sie ist eine höfliche Bitte an kooperative KI-Systeme, eure Urheberrechte und Ressourcen zu respektieren und den Zugang zu sensiblen oder geschützten Inhalten zu beschränken.
Die llms.txt-Datei ist ein neuer Entwurf und noch nicht so weit verbreitet oder standardisiert wie die robots.txt. Sie wurde von Google vorgeschlagen und ist primär dafür gedacht, Webmastern die Kontrolle darüber zu geben, wie große Sprachmodelle (LLMs) und andere KI-Systeme ihre Website-Inhalte zum Training nutzen dürfen.
Wie die llms.txt-Datei aussieht und funktioniert
Die llms.txt ähnelt in ihrer Struktur stark der robots.txt, verwendet jedoch spezifische Direktiven für KI-Modelle. Sie muss ebenfalls im Stammverzeichnis eurer Website platziert werden (z.B. https://www.eure-domain.de/llms.txt).
Grundlegender Aufbau
Die Datei besteht aus einem oder mehreren Blöcken, die jeweils mit einem User-agent beginnen, gefolgt von spezifischen Anweisungen für dieses KI-Modell oder diese Bot-Kategorie.
Mögliche Anweisungen und Direktiven (Beispiele)
Da der Standard noch in Entwicklung ist, basieren die Direktiven auf Googles Vorschlägen und der Logik der robots.txt.
1. Den Zugriff für alle KI-Modelle erlauben oder verbieten
Dies ist die grundlegendste Anwendung:
# Erlaubt allen KI-Modellen den Zugriff auf die gesamte Website
User-agent: *
Allow: /
Oder, um allen KI-Modellen den Zugriff auf die gesamte Website zu verbieten:
# Verbietet allen KI-Modellen den Zugriff auf die gesamte Website
User-agent: *
Disallow: /
2. Spezifische KI-Modelle ansprechen
Wenn ihr die User-agent-Namen bestimmter KI-Crawler kennt (die diese dann im HTTP-Header senden sollten), könnt ihr diese gezielt ansprechen.
# Regeln für den Google-spezifischen KI-Crawler (hypothetischer Name)
User-agent: Google-Extended
Disallow: /private-data/
Allow: /public-articles/
# Regeln für einen anderen hypothetischen KI-Crawler
User-agent: ExampleAI-Bot
Disallow: /training-data/
User-agent: Google-Extended: Dies ist der von Google vorgeschlagene User-Agent, um spezifisch Google’s generativen KI-Produkten und großen Sprachmodellen Anweisungen zu geben (zusätzlich zu den bestehenden Googlebot-Anweisungen in der robots.txt).
Disallow: /private-data/: Weist das Modell an, Inhalte in diesem Pfad nicht zu nutzen.
Allow: /public-articles/: Erlaubt explizit die Nutzung von Inhalten in diesem Pfad, auch wenn eine allgemeinere Disallow-Regel dies umfassen könnte (hier nicht der Fall, dient nur als Beispiel).
3. Verwendung des Allow:-Befehls (als Ausnahme)
Wie bei der robots.txt wird Allow: verwendet, um Ausnahmen innerhalb eines Disallow-Bereichs zu definieren.
In diesem Beispiel dürfen alle KI-Modelle nicht auf den Ordner /all-content-for-ai-blocked/ zugreifen, außer auf den Unterordner /public-articles/ innerhalb dieses Ordners.
Wichtige Punkte zur llms.txt
Freiwillige Einhaltung Ähnlich wie die robots.txt ist die llms.txt eine „Höflichkeits“-Anweisung. Kooperative und ethische KI-Modelle werden sich daran halten, aber „schlechte“ Akteure könnten sie ignorieren.
Noch in Entwicklung Der Standard und die spezifischen User-agent-Namen sind noch nicht fest etabliert. Google hat Google-Extended vorgeschlagen, aber andere Anbieter könnten eigene User-Agents definieren.
Ergänzung zur robots.txt Die llms.txt soll die robots.txt ergänzen, nicht ersetzen. robots.txt regelt das allgemeine Crawling und Indexieren durch Suchmaschinen, während llms.txt spezifisch die Nutzung von Inhalten für das Training von KI-Modellen adressiert.
Es ist eine spannende Entwicklung, die Webmastern mehr Kontrolle in der Ära der generativen KI geben soll!
Eine spannende Entwicklung, um auch in Zukunft die Kontrolle über eure digitalen Inhalte zu behalten.
Fazit
Bots können Fluch und Segen zugleich sein. Während einige eure Website unterstützen, können andere erheblichen Schaden anrichten. Mit den oben genannten Methoden könnt ihr eure digitale „Haustür“ vor unerwünschten Gästen schützen und sicherstellen, dass eure echten Besucher den besten Service erhalten. Bleibt wachsam und passt eure Sicherheitsmaßnahmen regelmäßig an, um immer einen Schritt voraus zu sein.
Bleibt sicher und viel Erfolg mit eurer Website! 💪
Wichige Bots und Crawler
Wichtigste Bots und Crawler für robots.txt und llms.txt
Bot-Name (User-Agent)
Zweck und Funktion
Steuerung in
Hinweise
Googlebot
Haupt-Crawler von Google. Indexiert Webseiten für die klassische Google-Suche (Web-Index, Bilder, Videos).
robots.txt
Der wichtigste Bot für die allgemeine Sichtbarkeit in der Suche.
Google-Extended
Der von Google vorgeschlagene Bot für das Training von großen Sprachmodellen (LLMs) und die Nutzung in generativer KI.
llms.txt
Wird verwendet, um Inhalte speziell für KI-Training zu steuern.
Bingbot
Haupt-Crawler von Microsoft. Indexiert Webseiten für die Bing-Suche und Copilot (Bing AI).
robots.txt
Wichtig für Bing, Yahoo und DuckDuckGo (da diese Bing-Daten nutzen).
AdsBot-Google
Crawler, der die Landingpages von Werbeanzeigen auf ihre Qualität und Konformität prüft.
robots.txt
Steuert das Crawling von Seiten, die Google Ads verwenden.
Applebot
Crawler von Apple, der Inhalte für die Siri-Vorschläge und die Spotlight-Suche auf iOS/macOS indexiert.
robots.txt
Wichtig für Apple-Gerätenutzer.
DuckDuckBot
Crawler von DuckDuckGo, obwohl sie häufig Bing-Daten nutzen, crawlen sie auch eigene Inhalte.
robots.txt
Für die Sichtbarkeit in der DuckDuckGo-Suche.
Baiduspider
Haupt-Crawler für die Baidu-Suchmaschine (China).
robots.txt
Wichtig, wenn Ihre Zielgruppe China umfasst.
YandexBot
Haupt-Crawler für die Yandex-Suchmaschine (Russland).
robots.txt
Wichtig für die Region Osteuropa/Russland.
AhrefsBot
Crawler, der das Internet nach Links durchsucht, um Daten für das Ahrefs SEO-Tool zu sammeln.
robots.txt
Ein Tool-Bot; kann viel Traffic verursachen, wenn er nicht begrenzt wird.
SemrushBot
Crawler, der Daten für das Semrush SEO-Tool sammelt (Keywords, Rankings, Backlinks).
robots.txt
Ein Tool-Bot; oft ein Ziel für Geschwindigkeitsbegrenzungen.
ChatGPT-User
Ein allgemeiner, jedoch seltener Bot, der von OpenAI in manchen Fällen verwendet werden kann. (Die Steuerung ist noch unklarer.)
robots.txt oder llms.txt
Vorsicht: OpenAI schlägt vor, dass die robots.txt den Zugriff auch für ihr KI-Training steuert, während Google die llms.txt bevorzugt.
💡 Wichtige Unterscheidung: robots.txt vs. llms.txt
robots.txt: Primär zur Steuerung von Suchmaschinen-Crawlern (Indexing) und SEO-Tools. Die Anweisungen hier gelten für fast alle Bots, die das Internet nach Links durchsuchen.
llms.txt: Ein neuer, vorgeschlagener Standard, der speziell die Nutzung von Inhalten zum Training generativer KI-Modelle (wie ChatGPT oder Google Gemini) steuern soll. Hier verwendet ihr am besten spezifische User-Agents wie Google-Extended.
Folge uns auf Linkedin für mehr indeep-Infos oder abonniere unseren Blog und du erhälst alle neuen Beiträge sofort per Mail.