Wikipedia verbietet KI für Artikel – nur zwei Ausnahmen erlaubt
Die Online-Enzyklopädie Wikipedia schränkt den Einsatz generativer Künstlicher Intelligenz (KI) massiv ein. Die neue Richtlinie, die am 26. März 2026 in Kraft trat, verbietet das Verfassen oder Umschreiben von Artikeln durch KI. Nur zwei eng definierte Ausnahmen bleiben unter strenger menschlicher Aufsicht erlaubt. Die Entscheidung fiel nach einer hitzigen Debatte unter den freiwilligen Autoren und zielt darauf ab, die redaktionelle Integrität der Plattform als verlässliche Wissensquelle zu bewahren.
Seit August 2024 gelten neue KI-Regeln – viele Unternehmen riskieren unwissentlich Bußgelder. Die EU-KI-Verordnung ist bereits in Kraft. Dieser kostenlose Leitfaden zeigt, was Sie jetzt beachten müssen. EU-KI-Verordnung kompakt: Endlich verständlich erklärt
Kampf gegen „KI-Schrott“ und falsche Fakten
Hinter dem radikalen Schritt steht eine fundamentale Sorge: die Verbreitung von automatisiert generierten Fehlinformationen, im Netzjargon oft als „KI-Schrott“ (AI Slop) bezeichnet. Die Wikipedia-Gemeinschaft fürchtet, dass KI-Tools wie große Sprachmodelle (LLMs) gegen Kernprinzipien der Enzyklopädie verstoßen. Dazu gehören die Nachweisbarkeit von Fakten und der neutrale Standpunkt.
„Diese Modelle erfinden oft Quellen oder verfälschen subtil die Bedeutung von Ausgangsmaterial“, heißt es in der Begründung. Ein Vorfall im März 2026 beschleunigte die Entscheidung: Administratoren entdeckten einen mutmaßlichen automatisierten Agenten mit dem Spitznamen „TomWikiAssist“. Dieser hatte hunderte Bearbeitungen vorgenommen und mehrere Artikel verfasst, was das Potenzial von KI zur Überforderung menschlicher Kontrolle verdeutlichte.
Die neue Politik ist auch eine Reaktion auf einen dramatischen Wandel im Nutzungsverhalten. Während die menschliche Leserschaft 2025 um etwa 8 % zurückging, schnellten die Zugriffe durch KI-Agenten und Suchmaschinen-Crawler um über 50 % in die Höhe. Wikipedia muss sicherstellen, dass die von Maschinen abgerufenen Daten akkurat und von Menschen verifiziert sind.
Erlaubt: Stilverbesserungen und Übersetzungshilfen
Trotz des strengen Verbots hat die Community zwei schmale Schlupflöcher für assistierende KI-Nutzung geschaffen. In beiden Fällen bleibt der Mensch der alleinige Verantwortliche.
- Stilistische Verfeinerung: KI darf wie eine erweiterte Rechtschreib- und Grammatikprüfung genutzt werden, um von Menschen geschriebene Texte zu polieren. Jede vorgeschlagene Änderung muss jedoch manuell überprüft werden. Das Einfügen neuer Informationen oder eine Sinnänderung sind strikt verboten.
- Übersetzungs-Assistenz: KI kann einen ersten Übersetzungsentwurf von einer Wikipedia-Sprachversion in eine andere generieren. Dies setzt voraus, dass der bearbeitende Nutzer beide Sprachen fließend beherrscht, um Fehler zu erkennen und zu korrigieren. Ziel ist die Wissensverbreitung, nicht die automatisierte Produktion.
Wikipedia als „Bollwerk menschlicher Expertise“
Die Entscheidung fällt in eine symbolträchtige Zeit: Während die englische Wikipedia im Januar 2026 ihr 25-jähriges Jubiläum feierte, erreichen die deutschen und französischen Ausgaben diesen Meilenstein im März 2026. Für die Community ist klar, dass die Langlebigkeit der Plattform auf der kollektiven Intelligenz ihrer Freiwilligen basiert – ein Faktor, der durch Algorithmen nicht zu ersetzen sei.
Was Unternehmen über die neue KI-Verordnung wissen müssen – aber oft übersehen. Dieser kostenlose Leitfaden zeigt, wie Sie Ihr KI-System richtig klassifizieren und dokumentieren, um alle gesetzlichen Anforderungen und Fristen einzuhalten. Kostenlosen KI-Umsetzungsleitfaden herunterladen
Experten sehen in Wikipedias Haltung ein wichtiges Signal im Kampf gegen die „Vermüllung“ (Enshittification) des Internets. Wenn Suchmaschinen und soziale Medien zunehmend KI-generierte Zusammenfassungen anzeigen, sinkt der Anreiz, die Originalquelle zu besuchen. Indem sich Wikipedia als „menschliche Bastion“ positioniert, sichert sie ihren Status als hochwertiger, kuratierter Datensatz. Dieser dient oft selbst als Trainingsgrundlage für die KI-Modelle, deren Nutzung nun eingeschränkt wird.
Die große Herausforderung: Wie lässt sich das Verbot durchsetzen?
Die größte Hürde für die Wikimedia Foundation und ihre Administratoren ist die Durchsetzung der neuen Regeln. Die Erkennung von KI-Texten ist schwierig, da many Sprachmodelle menschliche Schreibstile täuschend echt imitieren. Die Richtlinien räumen ein, dass auch manche menschlichen Autoren einen maschinenähnlichen Stil haben können. Daher reichen stilistische Auffälligkeiten allein nicht für Sanktionen aus.
Zur Unterstützung der Prüfer wurden aktualisierte Richtlinien für die Beobachtung der „Letzten Änderungen“ veröffentlicht. Sie konzentrieren sich auf Verhaltensmuster, wie die serienmäßige Erstellung von Artikeln mit perfekter Struktur aber dünner Faktenlage. Technische Lösungen zur Markierung verdächtiger Bearbeitungen werden geprüft.
Die Community bleibt offen, die Politik bei Weiterentwicklung der KI-Technologie zu überdenken. Der aktuell Kurs ist jedoch eindeutig: Der Fokus liegt auf dem Schutz menschlicher Autorenschaft. Für den Rest des Jahres 2026 steht die Schulung der weltweiten Autorenschaft und die Überwachung der Auswirkungen auf die Artikelqualität im Vordergrund. In einem zunehmend automatisierten digitalen Zeitalter ist Wikipedias Festhalten an menschlicher Expertise ein bedeutendes Experiment.








