AI-Board (AIB)

Das AI-Board des Fachbereichs Medien und Kommunikation berät und unterstützt beim Umgang mit Künstlicher Intelligenz. Dazu zählen Fragen der Forschung, der Lehre und der akademischen Selbstverwaltung. Das AIB steht jederzeit für Fragen zur Verfügung.

Das AI-Board des IfKW kurz vorgestellt

Künstliche Intelligenz prägt Forschung, Lehre und Verwaltung zunehmend – und wirft zugleich neue ethische, rechtliche und wissenschaftspraktische Fragen auf. Das AI-Board des Fachbereichs Medien und Kommunikation unterstützt Studierende, Lehrende und Forschende dabei, KI verantwortungsvoll, transparent und regelkonform einzusetzen. Die Empfehlungen des AIB basieren auf grundlegenden akademischen Prinzipien wie Autonomie, Verantwortung, Transparenz, Replizierbarkeit, Fairness und Diversität. Gleichzeitig berücksichtigt das Board die besonderen Herausforderungen von KI-Systemen – etwa mögliche Halluzinationen, Bias, fehlende Faktenprüfung oder Fragen der Datensicherheit.

Das AI-Board versteht sich als niedrigschwellige Anlaufstelle für alle Anliegen rund um KI-Nutzung: von didaktischen Fragen über die Entwicklung von Lehr- und Lernmaterialien bis hin zur Gestaltung von Forschungsprozessen oder zur Klärung von Regeln im Prüfungsbetrieb. Anfragen jeglicher Art können jederzeit an aib@ifkw.lmu.de gerichtet werden.

Richtlinien zum Einsatz von KI für Studium, Forschung und Lehre

Algorithmische Informationsverarbeitung gehört zum Arbeits-, Lern- und Lehralltag. So nutzen Lehrende die neuen technischen Möglichkeiten für ihre Seminar- und Vorlesungsplanung. Dazu gehört auch, den Umgang mit algorithmus- und sprachmodellbasierten digitalen Agenten zu schulen, Studierende zu sensibilisieren und zum Umgang zu befähigen. Deswegen dürfen am IfKW Studierende KI für ihr Studium nutzen – allerdings nur unter klaren Regeln, die dem Schutz wissenschaftlicher Integrität dienen.

Orientierungspunkte

Alle KI-Nutzung in Prüfungs- oder Forschungszusammenhängen muss angegeben werden (Tool, Prompt, Zweck). Fehlende Dokumentation wird als Verstoß gegen gute wissenschaftliche Praxis gewertet.

Daten mit Personenbezug, Interviewtranskripte, unveröffentlichte Manuskripte oder urheberrechtlich geschützte Texte dürfen nicht in KI-Systeme eingegeben werden – es sei denn, es liegt eine ausdrückliche Einwilligung vor und die Datenverarbeitung ist rechtlich zulässig.

KI darf Lern- und Forschungsprozesse unterstützen, ersetzt aber nicht die wissenschaftliche Eigenleistung. Originalität, kritisches Denken und fachliche Beurteilung verbleiben bei den Nutzer:innen.

Wer KI nutzt, trägt die volle inhaltliche und rechtliche Verantwortung für Fehler, Bias, Falschinformationen und Konsequenzen der KI-Ausgabe.

Alle KI-Outputs müssen kritisch geprüft werden – auf faktische Richtigkeit, Verzerrungen oder diskriminierende Inhalte, wissenschaftliche Genauigkeit, soziale Angemessenheit.

Generative KI verbraucht erheblich mehr Energie als herkömmliche digitale Tools. Fachspezifische Tools oder lokale Modelle sind ressourcenschonender.

Mitgliederinnen und Mitglieder des AI-Boards (AIB)

Prof. Dr. Mario Haim

Professor

Computational Communication Science • Politische Kommunikation • Computational Journalism

Julian Hohner, M.A.

Wissenschaftlicher Mitarbeiter

Computational Social Science • Radikalisierungs- und Extremismusforschung • Visuelle Kommunikation

Prof. Dr. Benjamin Krämer

Professor

Medienrezeption • Mediengeschichte und Medienwandel • politische Kommunikation • Musik und Medien

Dr. Larissa Leonhard

Wissenschaftliche Mitarbeiterin

Digital Literacy • Prägende Medienerlebnisse • Medienrezeptions- und Wirkungsforschung

Anea Meinert

Wissenschaftliche Mitarbeiterin

politische Kommunikation • Terrorismusberichterstattung • Themenbesetzung

Justin T. Schröder

Wissenschaftlicher Mitarbeiter

Wissenschaftskommunikation • Vertauen in Wissenschaft • Multimodale Kommunikation • Gender im Kontext Wissenschaft

Prof. Dr. Neil Thurman

Professor

AI and automation in journalism • The online behaviour of media audiences • Journalists’ routines and attitudes