Aktuell

Blick durch die Publikumsreihen im Hörsaal nach vorne zur Projektion einer Präsentation.
Das Publikum lauscht der Videoaufzeichnung von Hannes Bajohrs Referat. © FUG / Stefan Wermuth

Mensch, Maschine, Macht: Wie KI Bildung, Kunst und Gesellschaft verändert

Künstliche Intelligenz verändert den Zugang zu Wissen und stellt Bildung, Kunst und Regulierung vor neue Herausforderungen. Während die einen KI als Werkzeug für Effizienzgewinne und Kreativität nutzen, warnen andere vor der Abhängigkeit von Tech-Konzernen und der schleichenden Erosion wissenschaftlicher Standards. Expert:innen aus Wissenschaft, Verwaltung und Kultur diskutieren Chancen, Risiken und notwendige Massnahmen.

Von Sarah Beyeler, unterstützt durch KI

Kann eine KI Kunst oder Literatur erschaffen? Der Philosoph und Literaturwissenschaftler Ass. Prof. Dr. Hannes Bajohr von der University of California argumentiert, dass die Frage nicht technisch, sondern sozial zu beantworten ist. Kunst entsteht nicht nur durch formale Kriterien wie Neuheit oder Originalität, sondern durch soziale Anerkennung innerhalb eines kulturellen Rahmens.
Die Debatte über KI und Kreativität krankt laut Bajohr an einem verkürzten Verständnis des Kreativitätsbegriffs. Ursprünglich als göttliches Privileg betrachtet, ist er heute vor allem ökonomisch aufgeladen: Die «Kreativwirtschaft» fordert unablässige Innovation. Die KI-Forschung greift diesen Kreativitätsbegriff auf, reduziert ihn jedoch auf messbare Parameter und ignoriert den sozialen Kontext von Kunst.

«Kunst ist nicht nur eine Frage der Produktion, sondern der sozialen Anerkennung»

Ein zentrales Problem bleibt: Kunst, so Bajohr, ist nicht nur eine Frage der Produktion, sondern der sozialen Zuschreibung. Kunst existiert somit nicht isoliert, sondern in einem Geflecht aus kulturellen Institutionen, Diskursen und Anerkennungsmechanismen. Eine KI kann zwar Texte generieren, aber sie kann sich nicht als Autorin etablieren. Maschineller Output erhält erst durch menschliche Kuratierung Bedeutung. Die entscheidende Frage ist daher nicht, ob KI kreativ sein kann, sondern wer über den Kunststatus entscheidet. Solange dieser Anerkennungsakt menschlich bleibt, bleibt auch Kunst menschlich.

Ein Mann gestikuliert beim Sprechen mit beiden Händen. Neben ihm steht ein bunter Blumenstrauss.
«Universitäten müssen sich der Herausforderung stellen, ihre Prüfungskultur zu verändern», betont Prof. Dr. Fritz Sager, Vizerektor Lehre der Universität Bern. © FUG / Stefan Wermuth

KI und die Universität: Vom Wissen zum Können

Als ChatGPT plötzlich in der Hochschulwelt auftauchte, löste dies Panik aus. Dozierende, die ihren Status und ihre Anerkennung darauf gründeten, dass sie exklusive intellektuelle Fähigkeiten besassen, sahen sich von einer Maschine herausgefordert. Die ersten Reaktionen waren Abwehr und der Ruf nach Regulierung: Wie kann verhindert werden, dass Studierende bessere Texte schreiben als ihre Lehrenden? Prof. Dr. Fritz Sager, Vizerektor Lehre an der Universität Bern, vergleicht diesen Reflex mit früheren technologischen Umbrüchen: Die Schreibmaschine, der Taschenrechner oder das Internet haben ebenfalls massive Veränderungen gebracht, wurden aber letztlich in den (akademischen) Alltag integriert. KI ist nichts anderes als eine weitere Entwicklungsstufe.

«Es ist eine interessante Entwicklung, dass wir uns heute über Fehler freuen, weil sie das Menschliche zeigen.»

Die Universität Bern setzt auf aktive Gestaltung dieses Wandels: Forschungsgruppen und Lehrveranstaltungen widmen sich dem sinnvollen Einsatz von KI. Entscheidend ist nicht die Kontrolle, ob ein Text von einer KI oder einem Menschen stammt, sondern die Kompetenz, KI als Werkzeug kritisch zu nutzen. Prüfungen, die reines Faktenwissen abfragen, haben an Bedeutung verloren. Künftig geht es darum, Wissen kritisch anzuwenden.

Eine Frau gestikuliert während dem Sprechen mit beiden Händen. Sie hat blonde Haare, trägt ein schwarzes Jackett und um den Hals ein Umhängemikrofon. Neben ihr ist ein Blumenstrauss zu sehen, im Hintergrund ist das blau-weisse Banner des Forums für Universität und Gesellschaft erkennbar.
«Die ökologische und soziale Nachhaltigkeit von KI wird zu selten thematisiert», bemängelt Estelle Pannatier von AlgorithmWatch CH © FUG / Stefan Wermuth

Künstliche Intelligenz: Macht ohne Kontrolle?

Die Regulierung von KI bleibt eine grosse Herausforderungen. Estelle Pannatier von AlgorithmWatch CH warnt vor intransparenten Algorithmen, die Grundrechte unterlaufen und demokratische Strukturen gefährden können.

In der Schweiz werden KI-Systeme bereits in zahlreichen Bereichen eingesetzt – von der vorausschauenden Polizeiarbeit bis zur Stimmenauthentifizierung bei Banken. Doch oft ist unklar, wer diese Technologien entwickelt und steuert. Algorithmen beeinflussen Kreditvergaben, Jobchancen und sogar politische Meinungsbildung, ohne dass ihr Einfluss nachvollziehbar wäre.

«KI kann Grundrechte verletzen, die Demokratie gefährden und soziale Ungleichheiten verstärken.»

Neben diesen gesellschaftlichen Risiken weist Pannatier auf die vernachlässigte Nachhaltigkeitsdimension hin. Die enormen Ressourcen, die KI verbraucht, und die schlechten Arbeitsbedingungen in der Plattformökonomie stellen drängende Probleme dar. Die Dominanz weniger Technologieunternehmen führt zudem zu einem Machtgefälle, das demokratische Prinzipien untergräbt.
Die bestehenden Gesetze bieten bislang keine ausreichenden Antworten. Während der Bundesrat erste Schritte unternimmt, fordert Pannatier eine umfassende Strategie zur Steuerung von KI. Es gehe nicht darum, KI entweder zu verteufeln oder zu glorifizieren, sondern realistische Risiken zu adressieren. Ohne transparente Governance bleibe KI eine Blackbox – mit unkalkulierbaren Folgen für Gesellschaft und Demokratie.

 

Eine Frau ist am Sprechen. Sie trägt ein Beiges Oberteil und ein Umhängemikrofon um den Hals. Neben ihr steht ein bunter Blumenstrauss und im Hintergrund ist das blau-weisse Banner des Forums für Universität und Gesellschaft erkennbar.
«KI ersetzt Prozesse, aber nicht den Menschen, der sie steuert», betont Sabine Brenner vom Bundesamt für Kommunikation © FUG / Stefan Wermuth

KI-Regulierung: Die Schweiz setzt auf Zurückhaltung

Während die EU mit dem AI-Act strikte Regeln schafft, wählt die Schweiz einen anderen Weg. Statt spezifischer Technologiegesetze setzt sie auf sektorale Anpassungen und internationale Kooperation, erklärt Sabine Brenner vom Bundesamt für Kommunikation BAKOM.

Das BAKOM hat im Auftrag des Bundesrats eine Bestandsaufnahme der KI-Regulierung erstellt. Der Bericht zeigt: Bestehende Gesetze zu Datenschutz, Antidiskriminierung und Produktsicherheit erfassen bereits viele Aspekte der Technologie. Eine umfassende Regelung, die gezielt auf KI-Risiken eingeht, fehlt jedoch.

«Die Schweiz setzt nicht auf eine Technologie-, sondern auf eine Wirkungsregulierung»

Ein wichtiger Schritt ist die Unterzeichnung der KI-Konvention des Europarats, die Grundrechte im Umgang mit KI sichern soll. Parallel arbeitet das Bundesamt für Justiz an einer Vernehmlassungsvorlage für weitergehende Vorschläge bis 2026. Statt einer technologiezentrierten Regulierung – wie sie die EU verfolgt – setzt die Schweiz auf eine Wirkungsregulierung, die gesellschaftliche und rechtliche Konsequenzen in den Fokus rückt.
Branchenbezogene Massnahmen existieren bereits: Im Strassenverkehr wurden Rahmenbedingungen für autonomes Fahren geschaffen, in Zoll- und Finanzbehörden wird KI genutzt. Bis zu einer umfassenderen Regelung setzt der Bund auf freiwillige Standards und den Dialog mit Unternehmen.
Die Schweiz verfolgt einen pragmatischen Kurs: keine überstürzte Regulierung, aber enge internationale Zusammenarbeit. Offen bleibt, ob dieser Ansatz ausreicht, um Innovation und Schutz gleichermassen zu gewährleisten.

Ein Mann im dunklen Pullover gestikuliert mit beiden Händen.
«KI produziert keine Wahrheit – sie produziert Wahrscheinlichkeiten», gibt Tobias Hodel zu bedenken. © FUG / Stefan Wermuth

KI und Wissen: Zwischen Präzision und Täuschung

Large Language Models (LLMs) haben den Zugang zu Wissen revolutioniert. Doch sie erzeugen keine originären Erkenntnisse, sondern berechnen lediglich die wahrscheinlichste Fortsetzung eines Satzes. Das Ergebnis sind Texte, die perfekt formuliert, aber oft inhaltlich leer oder fehlerhaft sind.
Prof. Dr. Tobias Hodel von der Universität Bern warnt vor den Risiken dieser Technologie. Wer KI-generierte Inhalte unkritisch übernimmt, riskiert die Verbreitung von Pseudowissen. Besonders problematisch sind erfundene Quellenangaben und intransparente Trainingsdaten. Gleichzeitig sieht Hodel Potenzial für eine produktive Nutzung von LLMs, etwa zur Strukturierung grosser Datenmengen oder zur Generierung erster Entwürfe. Entscheidend sei jedoch, dass Nutzende die Mechanismen hinter den Modellen verstehen und deren Grenzen erkennen.

«Wer KI nutzt, muss mehr wissen, nicht weniger.»

Ein weiteres Problem ist die Abhängigkeit von grossen Technologieunternehmen. Die dominierenden KI-Modelle stammen aus den USA, ihre Trainingsdaten sind nicht offengelegt. Wissenschaftliche Institutionen sollten daher eigene, spezialisierte Modelle entwickeln, um Kontrolle über die Wissensproduktion zu behalten.
Schliesslich fordert Hodel neue Prüfungsformate: Studierende müssen zeigen, dass sie argumentieren und reflektieren – nicht nur, dass sie Texte generieren lassen können. «Data Literacy», also die Fähigkeit, KI-generierte Inhalte kritisch zu analysieren, wird zur Schlüsselkompetenz der Zukunft. Denn nicht Maschinen, sondern Menschen müssen Wissen bewerten und einordnen.


 

ZUR AUTORIN

Dr. Sarah Beyeler arbeitet am Forum für Universität und Gesellschaft

Zur Veranstaltung

© getty Images

Sämtliche Unterlagen und Aufzeichnungen zu den Veranstaltungen «Menschliche Erkenntnis in der Ära künstlicher Intelligenz» finden Sie unter diesem Link: www.forum.unibe.ch/kuenstlicheintelligenz