• Story

Tagung «KI in der Forschung» 2024

14.11.2024 Am 13. November 2024 beleuchteten prominente interne und externe Speaker zusammen mit rund 100 BFH-Forscher*innen die Chancen und Risiken der Künstlichen Intelligenz in der Wissenschaft.

Das Wichtigste in Kürze

  • Bei der Tagung «KI in der Forschung» diskutierten 100 BFH-Forschende und Expert*innen Chancen und Risiken von KI.

  • Transparenz und Ethik im Umgang mit KI wurden thematisiert, besonders im Hinblick auf die kommende EU-Regulierung.

  • In Workshops arbeiteten die Teilnehmer*innen praktisch mit KI und tauschten sich zu Themen wie Bias und Datenschutz aus.

Wie beeinflusst Künstliche Intelligenz (KI) die Zukunft der Forschung, und welche ethischen und rechtlichen Verantwortungen entstehen dadurch? Diese Fragen standen im Mittelpunkt der Tagung «KI in der Forschung», bei der rund 100 Dozent*innen und wissenschaftliche Mitarbeiter*innen der BFH aktuelle und zukünftige Perspektiven zum Einsatz von KI-Technologien in wissenschaftlichen Prozessen diskutierten.

Zwischen Hoffnung und Abwehrhaltung

«Wer nutzt heute bereits KI in der Forschungsarbeit?» Mit dieser Frage holte die Vizerektorin Forschung, Prof. Dr. Corina Caduff, das Publikum ab. Die Reaktion im Sall zeigte: KI ist im Alltag der Wissensarbeiter*innen angekommen. «Wir bewegen uns zwischen Hoffnung und Abwehr», beschrieb Caduff die aktuelle Stimmung.

Man sehe das Potenzial und die mit der Technologie verbundenen Risiken. Das Wichtigste sei die Transparenz im Umgang mit KI, betonte die Vizerektorin Forschung. Man müsse sich überlegen: «Welche Arbeiten erledigen wir mit KI? Und weshalb tun wir das?» Kai-Uwe Schmitt vom Scientific Integrity Board der BFH pflichtete bei: «Der Einsatz von KI muss ethisch vertretbar sein.»

Wir bewegen uns zwischen Hoffnung und Abwehr.

Corina Caduff
Corina Caduff Vizerektorin Forschung

KI-Governance-Experte Kevin Schawinski griff das Thema der Risiken auf. Heute seien erst die wenigsten vorbereitet darauf, was schon ab 2025 gesetzlich vorgeschrieben sein wird. «Der AI Act (EU-KI-Gesetz) ist in seiner Tragweite vergleichbar mit GDPR (EU-Datenschutz-Grundverordnung», sagt er und stellt klar, dass «nur zwei Prozent der Firmen […] aktuell bereit» sind für die neu EU-Regulation.

Problematisch für KI-Anwender*innen sei insbesondere, dass die EU KI relativ breit definiert. Je nach Auslegung könne auch ein Excel-Sheet unter die Regulation fallen. Entsprechend sei es mit einer Checkliste nicht getan. «AI Governance ist ein Prozess, den man leben muss», ist der Experte überzeugt.

Verständnis für den statistischen Papagei

In Ihrem Input erinnerte Prof. Dr. Mascha Kurpicz-Briki das Publikum daran, wie eine KI technisch funktioniert und welche Auswirkungen dies auf den KI-Output haben kann: Sprachmodelle, die hinter KIs wie ChatGPT stehen, errechnen aus unglaublich grossen Textmengen, wie wahrscheinlich ein gewisser Output bei gegebenem Input ist.

Diese Wahrscheinlichkeit fusst immer auf den zugrundeliegenden Trainingsdaten. «Deshalb sind Sprachmodelle auch als statistische Papageien bekannt», erklärt Kurpicz-Briki.

Wir müssen uns immer fragen, welchen Einfluss der KI-Bias auf eine Anwendung haben kann.

Mascha Kurpicz-Briki
Mascha Kurpicz-Briki Dozentin und KI-Expertin

Das heisst verkürzt: Wie die Trainingsdaten, so die Produkte einer KI. Mascha Kurpicz-Briki konzentriert sich bei diesem Effekt auf Vorurteile (Bias). «Alle Stereotypen, die wir in der Gesellschaft haben», führt Kurpicz-Briki aus, «werden in diesen Modellen wiedergegeben.»

Diese Stereotype unterscheiden sich von Gesellschaft zu Gesellschaft und ändern sich mit der Zeit. Entsprechend könne man stereotypische KI-Antworten (zumindest noch) nicht technisch beseitigen. Umso wichtiger, so die KI-Expertin, ist der verantwortungsvolle Umgang mit den Modellen: «Wir müssen uns immer fragen, welchen Einfluss der KI-Bias auf eine Anwendung haben kann.»

Praktische Workshops

Im zweiten Teil der Veranstaltung durften die Teilnehmer*innen in Workshops selbst aktiv werden. So beschäftigten sie sich damit, bessere Prompts zu entwickeln oder mit den Möglichkeiten KI für die Forschungsarbeit einzusetzen.

Aber auch die Schattenseiten der KIs wurden praktisch erfahrbar: Zusammen mit Mascha Kurpicz-Briki erfuhren die Teilnehmenden hautnah, wie sich Stereotype und Biases auf die Resultate von KIs auswirken. Im Workshop mit Silvia Schmid erhielten sie das Rüstzeug für den datenschutzrechtlich korrekten Umgang mit einer KI. Dorian Mittner und Anna Antonakis debattierten mit ihren Gästen ein eng verwandtes Thema, nämlich wie mit Hassrede in digitalen Medien umzugehen ist.

Offene Fragen bleiben

Die Tagung bot eine wertvolle Plattform für Austausch und Vernetzung in der wissenschaftlichen Gemeinschaft. Aber auch als das Apéro der Tagung «KI in der Forschung» eröffnet wurde, blieb noch das ein oder andere Fragezeichen bestehen. Die Arbeit mit KI – so der Konsens – wird wohl auch in der Forschung noch bis auf Weiteres Work in Progress bleiben.

Mehr erfahren

Kontakt