Direkt zum Inhalt
Menu Top
    loginAnmelden shopping_basketHefte kaufen assignment_addAbonnieren
Navigation principale
  • Startseite
  • Impulse
  • Essays
  • Philo.live!
  • Gespräche
  • Hefte
  • Sonderausgaben
  • Philosophen
  • Begriffslexikon
  • Bücher
  • Kulturanzeiger
rechercher
 Philosophie Magazin - Impulse für ein freieres Leben
Menu du compte de l'utilisateur
    loginAnmelden shopping_basketHefte kaufen assignment_addAbonnieren
Navigation principale
  • Startseite
  • Impulse
  • Essays
  • Philo.live!
  • Gespräche
  • Hefte
  • Sonderausgaben
  • Philosophen
  • Begriffslexikon
  • Bücher
  • Kulturanzeiger
Tag - Body

Bild:  © Universität St. Gallen (HSG)

Impuls

Entmündigende Maschinenintelligenz

Daniel Trusilo veröffentlicht am 19 März 2026 4 min

In unserer Reihe fragen wir nach den derzeit größten Bedrohungen der Freiheit. Sieben führende Forscher*innen aus unterschiedlichen Disziplinen, die derzeit Fellow am St. Gallen Collegium sind, geben Antworten. Der Politikwissenschaftler Daniel Trusilo meint: Algorithmen, die Inhalte und Informationen selektieren, sind ein zentrales Problem.


Jedes Mal, wenn wir durch einen Newsfeed scrollen, ein Suchergebnis lesen oder eine von einer App generierte Routenführung wählen, hat ein Algorithmus bereits entschieden, was wir sehen – und was nicht. KI-Systeme sind zu den unsichtbaren Redakteuren der Informationen geworden, die uns präsentiert werden.

Das Risiko besteht nicht darin, dass uns auf unsere Vorlieben zugeschnittene Inhalte gezeigt werden. Es besteht vielmehr darin, dass diese Anpassung im Laufe der Zeit das Spektrum der Ideen, denen wir begegnen, einschränkt. Es gibt immer alternative Sichtweisen oder Argumente, aber es ist wahrscheinlich, dass jedes Online-System, mit dem wir interagieren – sei es ein einfacher Newsfeed oder eine Social-Media-Plattform –, Algorithmen nutzt, um zu bestimmen, welche Inhalte uns präsentiert werden. Solche KI-gesteuerten Systeme erkennen, dass die Darstellung gegensätzlicher Ansichten das Engagement verringert. Daher neigen Algorithmen, die darauf ausgelegt sind, das Engagement zu optimieren, dazu, bestehende Überzeugungen zu bestätigen. 

Clickbait-Schlagzeilen verbreiten sich, um unsere Aufmerksamkeit zu erregen, während Nuancen und berechtigte Meinungsverschiedenheiten untergehen. Zudem stehen wir nun vor der Herausforderung, dass KI-generierte Inhalte die Plattformen überschwemmen. Es ist möglich, dass es den Menschen gar nicht wirklich wichtig ist, was real oder wahr ist, sondern dass sie vielmehr froh sind, Belege zu finden, die ihre Meinungen stützen. Das Ergebnis ist ein Informationsumfeld, das überwältigend wirkt, für jeden Einzelnen jedoch überraschend begrenzt ist, es sei denn, er sucht aktiv nach alternativen Quellen, hinterfragt seine eigenen Positionen und schränkt die Daten ein, die er den Algorithmen zur Verfügung stellt. Ein ironisches Beispiel hierfür wäre ein gut informierter, engagierter Erwachsener, der Bedenken hinsichtlich der von KI ausgehenden Risiken hat und sich mit Artikeln identifiziert, die seine Bedenken bestärken – präsentiert von einem KI-gesteuerten System wie Google.

Unabhängiger Journalismus und akademische Einrichtungen dienten traditionell als Quellen der Kritik und boten gründlich recherchierte, verifizierte, vielfältige und/oder provokative Ideen. KI setzt beide unter Druck. Redaktionen bauen Personal ab, da die automatisierte Erstellung von Inhalten immer kostengünstiger wird. Der akademische Verlagsbereich hat mit KI-verfassten Arbeiten zu kämpfen, die schwer zu erkennen und leicht zu produzieren sind. Dies sind keine abstrakten Risiken; es handelt sich um aktuelle Bedrohungen für die Art und Weise, wie freie Gesellschaften sich entwickeln und Informationen wahrnehmen.

 

KI und Wahlfreiheit


Verflochten mit unserem Freiheitsgefühl und direkt verbunden mit den Informationen, die uns erreichen, ist unsere Fähigkeit, unabhängige, fundierte Entscheidungen zu treffen. Unsere Entscheidungen spiegeln wider, wer wir sind und was wir wertschätzen. Doch wenn die uns präsentierten Optionen von einem KI-System kuratiert werden, wie frei sind unsere Entscheidungen dann wirklich?
Betrachten wir das Online-Shopping. Plattformen wie Amazon oder Temu bieten nicht einfach nur Produkte zum Verkauf an, sie gestalten aktiv, was dem Einzelnen präsentiert wird, und priorisieren Artikel auf der Grundlage komplexer Algorithmen, die vergangenes Verhalten, Gewinnmargen und von Dritten gekaufte Daten einbeziehen. Der freie Markt ist in diesem Zusammenhang nicht so frei. Die Kommerzialisierung unserer persönlichen Daten durch große kommerzielle Unternehmen bedeutet, dass unsere Präferenzen, die analysiert und als wertvolles Gut verkauft werden, genutzt werden, um unsere Einkaufsgewohnheiten zu beeinflussen.
Die gleiche Logik gilt für soziale Kontakte. Online-Dating-Plattformen nutzen KI-Systeme, um zu bestimmen, wer uns als mögliche „Matches“ präsentiert wird. Es lohnt sich zu überlegen, was im Interesse der Unternehmen liegt, die Online-Dating-Algorithmen entwickeln und einsetzen. Perfekte Matches auf Anhieb zu finden, ist finanziell nicht attraktiv. Ebenso beeinflussen Empfehlungsmaschinen auf Social-Media-Plattformen, welche Communities wir sehen und bei welchen wir uns „entscheiden“ beizutreten. Im Laufe der Zeit werden unsere sozialen Netzwerke und die Communities, denen wir angehören, von Systemen beeinflusst, von denen wir nie aktiv wussten, dass sie uns prägen, und die wir wahrscheinlich gar nicht verstehen können.

Auf individueller Ebene fühlt sich keiner dieser Eingriffe als Zwang an. Niemand wird gezwungen, eine Dating-App zu nutzen, von einer empfohlenen Liste zu kaufen oder einem bestimmten Social-Media-„Influencer“ zu folgen. Aber unsere Freiheit beruht nicht auf der Abwesenheit von direktem Zwang. Wahlfreiheit bedeutet, für mich zumindest, auch das Vorhandensein echter Alternativen, verlässlicher Informationen sowie eines Raums zum Nachdenken und Entscheiden. Wenn KI-Systeme diese drei Aspekte der Wahl subtil beeinflussen, schränken sie die Freiheit ein.

 

Eine Zukunft des bewussten Engagements


Sollten wir Angst vor einer Zukunft haben, in der KI-Systeme fest in den Alltag eingebunden sind, oder uns darauf freuen? Die ehrliche Antwort lautet: beides, und keine dieser Emotionen reicht für sich allein aus. Dieselben leistungsstarken KI-Technologien, die unsere Informationsquellen einschränken, könnten – wenn sie dafür ausgelegt wären – diese erweitern, indem sie Perspektiven hervorheben, die wir in der Vergangenheit niemals gefunden hätten. Die Algorithmen, die Polarisierung und Extremismus potenziell verschärfen könnten, könnten auch genutzt werden, um dem aktiv entgegenzuwirken. Und KI, die uns zu impulsiven Käufen verleitet, könnte uns genauso gut Auswahlmöglichkeiten präsentieren, die unsere Werte besser widerspiegeln.

Die Risiken und Chancen liegen nicht in der Technologie selbst, sondern in den Entscheidungen derer, die sie entwickeln, regulieren und nutzen. Vage Hoffnungen und übertriebene Ängste sind in dieser Zeit dramatischer technologischer Veränderungen gleichermaßen wenig hilfreich. Was wir brauchen, ist eine klar denkende, informierte Öffentlichkeit, die von Plattformen Transparenz, von Algorithmen Fairness und von demokratischen Institutionen eine praktische Aufsicht über die allgegenwärtig werdenden KI-Systeme einfordern kann. Unsere Freiheit geht nicht automatisch verloren. Aber Freiheit wird auch nicht bewahrt, wenn wir uns weigern, den anstehenden Herausforderungen durch fundierte, bewusste Entscheidungen zu begegnen. •

 

Daniel Trusilo ist Politikwissenschaftler und Early Career Fellow des Collegium St. Collegium. In seinem Projekt am Collegium widmet er sich dem „Algorithmic influence on choice, perception, and opportunity“.

  • E-Mail
  • Facebook
  • Linkedin
  • Twitter
  • Whatsapp
Anzeige
Tag - Body

Weitere Artikel

Gespräch
3 min

„Algorithmen sind politisch“

Theresa Schouwink 07 Januar 2021

Ob Tracking-App, Videokonferenzen oder Fallzahlprognosen: Die Pandemie führt zu einer Ausbreitung digitaler Techniken. Doch was macht die Allgegenwart von Algorithmen mit unserer Gesellschaft?

„Algorithmen sind politisch“

Gespräch
10 min

Thomas Grundmann: „Der Common Sense ist schon oft auf der falschen Seite angelangt“

Pia Kujat 16 März 2026

In einer Welt voller Informationen und spezialisiertem Wissen sind Expert:innen Autoritäten, denen wir folgen sollten, meint der Philosoph Thomas Grundmann. Ein Gespräch über die Grenzen und die Notwendigkeit kritischen Denkens – von Verschwörungstheorien bis hin zu den Lehren aus der Corona-Pandemie.

Thomas Grundmann: „Der Common Sense ist schon oft auf der falschen Seite angelangt“

Gespräch
8 min

Sebastian Rosengrün: „Algorithmen sind nicht rassistisch, Menschen sind rassistisch“

05 Mai 2021

Beim Thema Künstliche Intelligenz ist viel Halbwissen im Umlauf. Der Philosoph Sebastian Rosengrün erläutert im Interview, warum KI nicht rassistisch sein kann, nur wir zu echten Emotionen fähig sind und Algorithmen nicht über menschliche Schicksale entscheiden sollten.

Sebastian Rosengrün: „Algorithmen sind nicht rassistisch, Menschen sind rassistisch“

Gespräch
9 min

Daniel Leese: „In deutschen Debatten dient China oft nur als Chiffre”

Daniel Leese 04 Oktober 2023

In China gibt es nur Parteimarxismus? Weit gefehlt, wie der Sinologe Daniel Leese erläutert. Ein Gespräch über neue Linke, alte Bekannte aus dem Westen und die Suche nach dem chinesischen Schlüssel als achter Teil unserer Reihe Was gibt es Neues im 21. Jahrhundert?

Daniel Leese: „In deutschen Debatten dient China oft nur als Chiffre”

Gespräch
6 min

Sabine Müller-Mall: „Algorithmen entpolitisieren uns“

Theresa Schouwink 21 Dezember 2020

Ob Tracking-App, Videokonferenzen oder Fallzahlprognosen: Die Pandemie führt zu einem Digitalisierungsschub. Doch was macht die Allgegenwart von Algorithmen mit unserer Gesellschaft? Ein Gespräch mit der Rechtsphilosophin Sabine Müller-Mall.

Sabine Müller-Mall: „Algorithmen entpolitisieren uns“

Essay
7 min

Algorithmen entscheiden nichts

Thomas Beschorner und Florian Krause 16 August 2021

Oft heißt es, Algorithmen würden „entscheiden“ oder Autos „autonom“ fahren. Doch führen derlei Begriffe in die Irre. Denn „Künstlicher Intelligenz“ fehlt etwas, was nur der Mensch hat: Phantasien, Rechtfertigungen und Vorstellungen vom guten Leben.

Algorithmen entscheiden nichts

Gespräch
8 min

Daniel Schreiber: „Wir sollten das Zuhause-Gefühl in die Gegenwart bringen“

Olga Kirschenbaum 03 August 2022

Wann fühlen wir uns zu Hause? Und kann es nach einer Flucht noch ein Zuhause geben? Daniel Schreiber im Gespräch über die Verortung des Menschen, die Herkunft der Heimatgefühle und die Bedeutung des Sozialen.

Daniel Schreiber: „Wir sollten das Zuhause-Gefühl in die Gegenwart bringen“

Essay
8 min

Die Maschine, die für uns fühlt

Daniel Bracker 03 Februar 2026

LLMs wie ChatGPT können nicht nur Informationen ausgeben, sondern auch Entscheidungen für uns fällen. Aber sollten wir uns darauf einlassen? Daniel Bracker zeigt, warum es mit Blick auf epistemische Autonomie und unsere Selbstkonstitution entscheidend ist, dass wir das Urteilen nicht der KI überlassen. 

Die Maschine, die für uns fühlt

Anzeige
Tag - Body
Hier für unseren Newsletter anmelden!

In einer Woche kann eine ganze Menge passieren. Behalten Sie den Überblick und abonnieren Sie unseren Newsletter „Denkanstöße“. Dreimal in der Woche bekommen Sie die wichtigsten Impulse direkt in Ihre Inbox.


(Datenschutzhinweise)

Jetzt anmelden!
Anzeige
Tag - Body

Fils d'ariane

  1. Zur Startseite
  2. Artikel
  3. Entmündigende Maschinenintelligenz
Philosophie Magazin Nr.Nr. 87 - Februar 2026
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
April/ Mai Nr. 87
Vorschau
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Rechtliches
  • Werbung
  • Datenschutzerklärung
  • Impressum
Soziale Netzwerke
  • Facebook
  • Instagram
  • Twitter
  • RSS
Philosophie Magazin
  • Über uns
  • Unsere App
  • PhiloMag+ Hilfe
  • Abonnieren

Mit unseren Denkanstößen philosophische Ideen regelmäßig in Ihrem Postfach

Jetzt anmelden!