Künstliche Intelligenz - der stille Feind der Demokratie?
- 18Std.
- 11 Min. Lesezeit
Von Hanno, Ole, Levi - Wie schätzt unsere Generation die Gefahr ein? Wir haben im Rahmen des Vernetzten Unterrichts zum Thema geforscht und Umfragen durchgeführt.

„No, that’s probably AI.”
Mit diesen Worten wischte US-Präsident Donald J. Trump eine unangenehme Frage vom Tisch – schnell, einfach, ohne Belege. Ein Satz, der symptomatisch für eine neue Realität steht. Künstliche Intelligenz ist längst keine Zukunftsvision mehr – sie ist Gegenwart. Ob beim Scrollen durch soziale Medien, beim Verfassen von Texten oder bei der Informationssuche im Internet: KI-Systeme begleiten uns täglich, oft ohne, dass wir es bewusst wahrnehmen.
Was auf den ersten Blick wie ein nützliches Werkzeug wirkt, entpuppt sich bei näherer Betrachtung als eine ernsthafte Gefahr für unsere demokratische Gesellschaft. Spätestens seit dem weltweiten Durchbruch von ChatGPT im Jahr 2022 und der rasanten Verbreitung weiterer KI-Modelle wie Gemini oder Grok ist das Thema in der Mitte der Gesellschaft angekommen.
Millionen von Menschen nutzen täglich von KI gestützte Anwendungen und werden unterbewusst von Algorithmen beeinflusst. Genau hier liegt das Problem: Die Technologie entwickelt sich schneller als unser gesellschaftlicher und rechtlicher Umgang mit ihr. Die politische Aktualität des Themas ist unübersehbar. Im Jahr 2024 fanden weltweit mehr Wahlen statt als je zuvor in der Geschichte (1) . Gleichzeitig häuften sich Berichte über KI- generierte Desinformationen, gefälschte Bilder und Videos von Politikerinnen und Politikern sowie automatisierte Meinungsmacher in soziale; Netzwerken.
Die Frage, ob KI eine Bedrohung für Freie und faire Wahlen darstellt, wird von Expertinnen und Experten weltweit diskutiert. Doch die Gefahr geht über Wahlmanipulation hinaus. KI kann gezielt eingesetzt werden, um gesellschaftliche Spaltung zu vertiefen, Misstrauen gegenüber Institutionen zu schüren und demokratische Diskurse zu vergiften. Es ist daher kein Zufall, dass die Europäische Union mit dem sogenannten AI Act im Jahr 2024 das weltweit erste umfassende KI-Gesetz verabschiedet hat, das Hochrisiko-KI-Anwendungen regulieren soll (2).
In diesem Artikel möchten wir der Frage nachgehen: Ist KI der stille Feind der Demokratie?
Wir beleuchten die grundlegenden Probleme, werten eigene Umfragen aus und entwickeln mögliche Lösungsansätze. Schlussendlich sollte man sich bewusst machen, dass man die Demokratie nur schützen kann, wenn man versteht, wie KI sie gefährdet.
Grundsätzliches Problem
Der stille Feind hat viele Gesichter – und genau das macht ihn so gefährlich. Künstliche Intelligenz bedroht die Demokratie nicht mit Gewalt, sondern mit etwas weitaus Wirkungsvollerem: Informationen. Oder genauer gesagt: mit falschen, verzerrten und gezielt platzierten Informationen. Gerade in der Politik kann diese Form der Informationsmanipulation besonders weitreichende Folgen haben. Diese politische Manipulation wird im großen Stil eingesetzt. KI ermöglicht es, zielgruppengenau politische Botschaften zu erstellen und zu verbreiten – zugeschnitten auf Alter, Wohnort, Interessen und psychologische Profile einzelner Nutzerinnen und Nutzer. Ein Beispiel dafür sind die sogenannten Desinformationen. KI-Systeme sind heute in der Lage, in Sekundenschnelle täuschend echte Texte, Bilder, Audio- und Videoaufnahmen zu erstellen. Sogenannte „Deepfakes”, also KI-generierte Fälschungen von Personen, können Politikerinnen und Politiker Dinge sagen lassen, die sie nie gesagt haben. Was früher Wochen der Nachbearbeitung in einem Filmstudio erforderte, gelingt heute jedem mit einem Laptop und einer kostenlosen App. Die Folge: Niemand kann mehr mit Sicherheit sagen, was echt ist und was nicht.
Das übergeordnete Problem ist dabei eines der Transparenz und Kontrolle. Demokratie funktioniert nur, wenn Bürgerinnen und Bürger auf Basis echter, verlässlicher Informationen entscheiden können. Wenn KI-Systeme jedoch im Verborgenen operieren, Meinungen formen und Wahrheiten verzerren, wird die Grundlage jeder demokratischen Entscheidung beeinflusst. Was denken die Menschen? Unsere Umfrage (3) zeigt, dass Künstliche Intelligenz längst im Alltag angekommen ist aber die Vorsicht und das Wissen darüber nicht im selben Tempo wächst. Es wurden insgesamt 31 Personen aus verschiedenen Altersgruppen in der Oldenburger Innenstadt befragt.
Die Nutzung von künstlicher Intelligenz ist generationsübergreifend hoch. Sei es mit einem richtigen KI-Programm wie ChatGPT oder Claude oder auch nur die automatische Google KI Antwort. Fast alle Befragten kommen regelmäßig bis täglich in Kontakt mit den Ergebnissen einer KI. Wie gut sie sich tatsächlich mit den Systemen und der Funktionsweise auskennen, ist im Gegensatz eher gemischt. KI-Kompetenz sinkt mit dem Alter. Junge Erwachsene gaben an, sich eher "okay" bis "gut" mit der Thematik auszukennen, während es bereits bei Berufstätigen im Alter zwischen 26 bis 45 eine starke Tendenz zu „wenig“ gab. Auch beim Informationsverhalten gibt es signifikante Unterschiede. Je nach Altersgruppe vertrauen die Personen auf unterschiedliche Informationsräume und beziehen ihre Informationen von verschiedenen Quellen. Besonders die älteren Leute und Rentner setzen auf Medien wie das Radio, die Zeitung oder Online-Zeitschriften. Mit sinkendem Alter ist der Griff zum Smartphone doch gemütlicher und Apps wie Instagram, TikTok oder YouTube werden zur primären Informationsquelle.
Wir sehen eine klare Spaltung, jedoch bleibt eine wichtige Frage: Wird auch künstliche Intelligenz genutzt, um sich über politische Themen und alles, was in der Welt passiert, zu informieren? Eine klare Antwort. – Nein. Obwohl… Doch! – Ein Faktor, an welchen wir vor unserer Umfrage überhaupt nicht gedacht haben: Google AI-Overviews. Wir sind an einem Punkt, an dem man nur noch kaum um die Nutzung von künstlicher Intelligenz herumkommt. Google generiert eine Übersicht mit KI, die auf Webseiten nach den Stichworten aus der Suchanfrage filtert und diese Informationen schnell und einfach darstellt. Auch wenn fast alle Personen mit Nein auf diese Frage antworteten, wurde klar, dass sie indirekt schon auf politische Informationen von KI vertrauen, wenn sie googeln.
Auch in den sozialen Medien ist dies ein großer Risikofaktor. Auf Plattformen wie TikTok kann jeder Kurzvideos hochladen und somit auch politische Inhalte verbreiten. 90% der jungen Erwachsenen gaben an täglich politische Inhalte auf solchen Plattformen zu sehen. Viele konnten sich vorstellen, dass sie dabei schonmal über eine der „Fake News“ gestolpert sind und diese geglaubt haben. Bei der Frage, ob künstliche Intelligenz stärker reguliert werden sollte, teilten sich die Meinungen. Der Gedanke von Regulierungen, kontrollierten Datensätzen und anderen Einschränkungen bringt Zweifel auf. Einige fragen sich, ob es wirklich die Politik sein sollte, die Regeln für die Nutzung oder das Verhalten künstlicher Intelligenz, einführt. Andere behaupteten, es sei schon längst überfällig, dass in dem Bereich etwas passiert und sie seien enttäuscht, dass noch nicht eingegriffen wurde. Diese Sichtweise wurde tatsächlich am meisten durch junge Erwachsene vertreten.

Bei der letzten Frage unserer Umfrage, gab es ein klares, eindeutliches 100%-Ergebnis, welches ganz klar auf die Aktualität und die Wichtigkeit dieses Themas hindeutet. Wir haben die Leute gefragt, ob sie sich vorstellen können, dass durch Inhalte, welche durch KIs vermittelt werden, beeinflusst wird, wie Leute wählen. Klare Antwort: Ja – 100% aller Befragten stimmten dem zu. Für uns zeigt das ganz klar: Ja! Auch der Einfluss von Künstlicher Intelligenz ist ein enormer Faktor in der politischen Meinungsbildung.
Unsere Perspektive
Nun ist wohl allen klar, dass wenn 100% der Befragten glauben, dass KI-Inhalte Wahlentscheidungen beeinflussen können, dies wenigstens leicht der Wahrheit entspricht. Doch dabei ist die diese Information noch nicht besonders interessant. Die viel interessantere Frage, welche aus dieser These hervorgeht, ist doch, wie die KI Wahlentscheidungen beeinflussen kann und welche Folgen dies auf die politische Meinungsbildung und Demokratie hat.
Zwei Bedrohungen der Demokratie durch KI
Unsere Meinung nach stellt die KI eine Bedrohung für die Demokratie dar und tut dies auf zwei verschiedene Weisen: Die wohl offensichtlichere ist die Nutzung der KI, um Inhalte zu erstellen, welche den Wähler gezielt täuschen wollen. Durch die Entwicklung von KI gibt es immer bessere Möglichkeiten täuschend echte Videos und Fotos von jeglichen Personen erstellen zu lassen. Und diese werden in Zukunft noch realistischer sein. Geschickt gemacht, können solche Inhalte für den Benutzer nur noch schwer von echten Inhalten unterschieden werden. Diese Gefahr sieht man schon heute, zum Beispiel daran, dass ca. 45% der Befragten bei unserer Umfrage angaben, einen KI Deepfake erst im Nachhinein erkannt zu haben.

Dazu muss man auch noch diejenigen rechnen, welche solche Inhalte gar nicht erst im Nachhinein erkannt haben. Diese Entwicklung ist durch die Verbreitung von Social Media besonders wirksam. Zwei Drittel der Befragten gaben an, sich bei Social Media über Politik zu informieren. Vor allem auf Plattformen wie TikTok, bei welchen der Nutzer durch viele kurze Videos scrollt, fallen KI-generierte Videos und Fotos nicht auf. Dazu kommt noch die extreme Aufmerksamkeit, welche Videos innerhalb kürzester Zeit auf diesen Plattformen erreichen können.
Eine Richtigstellung von solchen Täuschungen kann häufig zu spät kommen oder den Getäuschten gar nicht erst erreichen. Durch diese Täuschungen können Parteien und andere politische Akteure leicht Massen an Menschen gegen ihre politischen Gegner aufhetzen. Diese Gefahr geht vor allem von extremen Parteien aus. Deren politischen Narrative beruhen sowieso meistens schon auf einem „Feindesbild“, welches für den Wähler der Sündenbock aller Probleme ist. Diese Meinung ist für den Wähler einfach einzunehmen, weil man durch diesen Sündenbock keine Verantwortung mehr über seine Probleme übernehmen muss. Die KI-Fakes können leicht dieses Narrativ verstärken und verbreiten.
Und dass der Aufschwung von extremen Parteien langfristig oder kurzfristig zu einer Gefährdung der Demokratie führt, sollte jedem Menschen, besonders nach einem Blick in ein Geschichtsbuch, klar sein.
Doch aus der Verbreitung von solchen Fakes folgt auch die Tatsache, dass die Menschen in Zukunft sehr vorsichtig mit Fotos und Videos vor allem in den Sozialen Medien sein werden. Nicht nur Fake-Inhalte werden angezweifelt, sondern auch echte. Das Vertrauen in die Politik wird noch stärker erschüttert. Alles könnte KI sein. Das kann Folgen auf die Demokratie und Politik haben: · Zunächst werden die Menschen überfordert und wissen nicht mehr, was sie glauben sollen, was dazu führt, dass die Wahlbeteiligung einbricht. Auch wird es einfacher für politische Gegner zu behaupten, bestimmte Inhalte seien fake, damit alles in ihre Weltanschauung passt. Dies zerstört die Gesprächsgrundlage und führt somit zu einer deutlicheren Spaltung der Gesellschaft.
Diese schaden der Demokratie erheblich. Durch die sinkende Wahlbeteiligung fallen Mitte Parteien bei der Wahl raus und vor allem die politisch engagierten Extremen bekommen durch das blinde Vertrauen ihre Wählerschaft immer noch Stimmen. Dazu kommt noch die Spaltung, welche am Ende die politischen Lager mit noch mehr Hass auflädt. Es verschärft eine extrem angespannte Lage in der Politik und Gesellschaft. Bei den Folgen für die Demokratie müssen wir uns wohl nicht wiederholen. Die KI wird hier als Werkzeug benutzt, als Mittel um Täuschungen herzustellen.
Aber die KI kann noch sehr viel mehr. Sie dient auch als Werkzeug der Automation. Dies ist ein wichtiger und auch positiv zu sehender Aspekt der KI. Wir gucken jedoch auf einen Aspekt, welcher eher beunruhigend ist: Bots. Schon vor dem großen Aufschwung der KI hatten Social Media Plattformen Probleme mit Bots. Doch nun, wo KI wohl für jeden zugänglich ist, wird dieses Problem immer größer. Diese Bots können jeglicher Verwendung dienen. Für die Politik sind sie höchst gefährlich. Durch Bots können in den sozialen Medien scheinbare Mehrheiten vorgetäuscht werden und Posts von politischen Favoriten hochgepusht werden.
Aber Vorsicht: Man sollte bei Social Media nicht glauben, dass die Politiker, die viel geliked wurden, auch gewählt werden. Die Wähler fangen wegen Likes und Reposts nicht an ihr Wahlverhalten zu überdenken. Das haben schon genug Wahlergebnisse gezeigt. Auch wenn die Bots die Wahl selbst, vor allem durch den „Bubble-Effekt“, welcher besagt, dass politisch Gleichgesinnte auf Social Media sich meist nur gegenseitig sehen, nicht stark beeinflussen werden, können diese den politischen Diskurs stark stören. Denn wenn den Menschen bei Social Media vorgegaukelt wird, sie seien in der Mehrheit, ist die Bereitschaft für die Diskussion noch geringer. Meinungen werden aufgrund des scheinbaren Rückhalts zu Fakten. Die weitere Spaltung der Gesellschaft scheint unvermeidbar.
Über die Funktion der KI als Hersteller für Inhalte der politischen Meinungsmache haben wir euch wohl informiert. Hierbei ging es um von politischen Akteuren generierte Inhalte, welche im Internet, aber vor allem in Social Media verbreitet werden. Jedoch hat auch der Aufschwung der KI-Chatbots als Berater und Informationsquelle Einfluss auf unsere Meinungsbildung.
Auch wenn sich die meisten Menschen laut unserer Umfrage nicht mit solchen Modellen über Politik informieren, gibt es vor allem unter den jüngeren Menschen einige, die dies doch tun. 20 – 40% (je nach spezifischer Altersgruppe) der Befragten gab dies an. Hiermit sind nicht mal nur die Antworten der Bots, wenn man sie nach politischen Debatten befragt, gemeint. Nein, allein schon das verschiedene Framing von gleichen Tatsachen. Gefährlich bei den Chatbots ist das vorgetäuschte „Allwissen“. Sie sind immer bei jeder Frage zu 100% von sich überzeugt. Es leitet den Nutzer dazu, den Antworten, ohne die Richtigkeit zu prüfen, zu vertrauen. Dies verstärkt den Einfluss der Antworten auf den Nutzer. Die KI arbeitet immer basierend auf ihren Datensätze und Richtlinien. Dadurch sind ihre Antworten als Besitzer der KI leicht zu beeinflussen. Dies kann man mit Blick auf Elon Musks „Haus-KI“ gut erkennen. KI‘s antworten so, wie die Besitzer es wollen. Was ihrer Meinung entspricht. Wenn man sich über solche Chatbots über Politik informiert, ist es fast unmöglich sich nicht beeinflussen zu lassen. Doch auch „neutrale“ Chatbots tun dies, aber häufig subtiler. Gleiche Tatsachen können durch unterschiedliches Framing, ganz anders auf den Menschen wirken. Hier ein Beispiel:
Positives Framing: „Diese Behandlung hat eine 90 % Erfolgsrate.“
Negatives Framing: „Bei dieser Behandlung gibt es eine 10 % Ausfallrate.“
Durch die vielen Menschen, welche Chatbots benutzen, können selbst solche Kleinigkeiten die Politik beeinflussen. Nun ist klar, dass auch Chatbots selbst ein Werkzeug zur politischen Stimmungsmache sind. Gefährlich wird dies in den falschen Händen. Wenn diejenigen, welche über die KI entscheiden, eine politische Meinung fördern wollen, können sie möglicherweise durch ihre Chatbots die Nutzer auf ihre Seite ziehen. Das widerspricht dem Grundsatz der freien Meinungsbildung und ist somit schädlich für die Demokratie. Wir hoffen, Sie verstehen jetzt, wie die KI unsere Demokratie und freie Willensbildung schadet.
Die größte Gefahr ist unserer Meinung nach, dass die Menschen nicht merken, wie sie von KI beeinflusst werden. Dies liegt natürlich an dem „Allwissen“, welches die Chatbots (unabsichtlich) vortäuschen, welches den Nutzer dazu verleitet, sich von den Antworten überzeugen zu lassen. Es liegt auch an täuschenden Inhalten, welche die KI herstellen kann. Der Mensch bemerkt nicht, dass er auf die Täuschungen hereinfällt und ist wieder überzeugt, dass er echten Fakten glaubt. Zudem kommen noch die fehlenden Kenntnisse zur KI hinzu. 4 von 6 Rentner*innen gaben an, mindestens gelegentlich KI zu benutzen, obwohl sie ihm Vergleich eher geringere Kenntnisse als jünger Menschen haben. Wie soll denn Menschen dann auch ein Einfluss der KI auffallen?
Zusammengefasst kann die KI eine große Gefahr für unsere Demokratie sein, da sie uns in unserer Meinungsbildung beeinflusst und in unserer Meinung so bestärkt, dass sie zu einer starken Spaltung der Gesellschaft führt. Lösungsansätze Die Ergebnisse unserer Umfrage und die Entwicklungen rund um Künstliche Intelligenz zeigen deutlich: der Einfluss von KI auf die politische Meinungsbildung ist gefährlich und wächst stetig.
Doch was lässt sich dagegen unternehmen?
1. Stärkung der Medienkompetenz
Einer der wichtigsten Ansatzpunkte ist die Bildung. Solange Menschen nicht in der Lage sind, KI-generierte Inhalte von echten zu unterscheiden, bleibt jede Lösung sinnlos. Medienkompetenz sollte daher bereits in der Schule vermittelt werden und das nicht nur theoretisch, sondern auch praktisch anhand von Beispielen. Wie erkenne ich ein Deepfake Video? Woran erkenne ich, dass ein Beitrag auf TikTok politisch manipuliert sein könnte? Wer hat diesen Inhalt erstellt und mit welchem Ziel? Diese Fragen müssen junge Menschen lernen, kritisch zu stellen. Zudem muss beigebracht werden, dass eine einzige Quelle nicht ausreicht und man lieber mehrere Quellen zu einer Sache sich anguckt, bevor man etwas glaubt. Doch auch ältere Generationen dürfen dabei nicht vergessen werden. Volkshochschulen, öffentliche Vorträge und weitere Informationsangebote könnten dazu beitragen, das Bewusstsein für KI Risiken in der Gesellschaft insgesamt zu schärfen.
2. Regulierung von KI und sozialen Medien
Neben der Bildung braucht es klare gesetzliche Regelungen. Der europäische AI Act ist ein erster Schritt in die richtige Richtung, doch klar ist, dies reicht nicht aus, worüber sich auch Experten sicher sind. Konkret wäre es sinnvoll, KI-generierte Inhalte, vor allem in politischen Zusammenhängen zu kennzeichnen. Wer ein Deepfake-Video oder einen KI-geschriebenen Artikel veröffentlicht, sollte dazu verpflichtet sein, dies transparent zu machen. Plattformen wie TikTok, Instagram oder YouTube müssen stärker in die Verantwortung genommen werden, wenn es darum geht, Falschinformationen schnell zu erkennen und zu entfernen. Dass dies grundsätzlich möglich ist, zeigen bestehende Systeme zur Erkennung von Urheberrechtsverstößen. Genau dieselbe Technologie könnte man auch für politische Desinformationen nutzen.
3. Transparenz bei KI-Systemen
Ein weiteres Problem ist die fehlende Transparenz. Viele Menschen wissen nicht, nach welchen Kriterien Algorithmen entscheiden, welche Inhalte ihnen angezeigt werden. Gerade Google AI Overviews oder die Empfehlungsalgorithmen sozialer Medien haben enormen Einfluss darauf, welche Informationen Menschen überhaupt erreichen. Plattformen und KI-Entwickler sollten transparenter werden und ihre Systeme zeigen und erläutern. Denn sie tragen eine enorme Verantwortung.
4. Politisches Bewusstsein und gesellschaftliche Debatte
Letztlich ist es auch eine gesellschaftliche Aufgabe. Die Frage, welche Rolle KI in unserer Demokratie spielen darf, kann nicht allein von Big Tech oder Politikern beantwortet werden. Sie muss öffentlich diskutiert werden in Schulen, Familien, Medien und der Politik. Unsere Umfrage hat gezeigt, dass bereits heute 100 % der Befragten davon überzeugt sind, dass KI das Wahlverhalten beeinflussen kann. Dieses Bewusstsein ist ein wichtiger Ausgangspunkt.
Doch Bewusstsein allein genügt nicht, es muss in Handeln übergehen, sowohl auf individueller als auch auf politischer Ebene. Gerade zurzeit sieht man immer stärker, wie sich die politischen Meinungen immer mehr in zwei Extreme aufteilen, was die Wichtigkeit betont. Die vorgestellten Ansätze zeigen: es gibt keine einfache Lösung. Der Umgang mit KI in der politischen Meinungsbildung erfordert ein Zusammenspiel aus Bildung, Regulierung, Transparenz und gesellschaftlichem Engagement. Was jedoch klar ist: je früher gehandelt wird, desto besser. Schlussendlich gibt es also immer noch Hoffnung nach der ganzen Schwarzmalerei. Wir müssen vor allem ein Bewusstsein für die Auswirkungen von KI schaffen. Obwohl es lästig ist, und wir genug andere Probleme auf der Welt haben. Wenn Donald Trump sich also das nächste Mal aus einer unangenehmen Situation herausredet, in dem er die Vorwürfe als KI-Fakes bezeichnet, sitzt ihm hoffentlich ein Mensch gegenüber, der dies verstanden hat und ihn zur Rede stellt.
Fußnoten:
1 World Economic Forum, https://www.weforum.org/stories/2023/12/2024-elections-around-world/, 11.03.2026
2 EU AI Act, https://artificialintelligenceact.eu/de/, 13.03.2026
3 Straßenumfrage, https://drive.google.com/file/d/1eqF2VBSDpck8J-wxaCBZVGdnc4FN ujG/view?usp=drive_link




Kommentare