Cross-Cutting AI: Erfolgreicher gemeinsamer NFDI-Workshop zu „LLM in Scientific Publishing“
Expert:innen aus unterschiedlichen Disziplinen diskutierten zum Gebrauch von KI im wissenschaftlichen Betrieb.
Am 11. Februar 2025 trafen sich über 60 Expert:innen aus Wissenschaft, Verlagen und Start-ups im Frankfurter DIPF, um beim Workshop „Large Language Models and the Future of Scientific Publishing“ den Einsatz generativer KI im Wissenschaftsbetrieb zu diskutieren. Die gemeinsame Veranstaltung der NFDI-Konsortien KonsortSWD, NFDI4Chem, NFDI4DataScience, NFDI4Earth, NFDI-MatWerk und Text+ schuf eine seltene Dialogplattform zwischen Disziplinen – von den Sozialwissenschaften bis zu den Materialwissenschaften. Dies ermöglichte multiperspektivische Diskussionen, die institutionelle und fachliche Grenzen überwanden.
Den Auftakt bildeten zwei kontrastreiche Keynotes: Prof. Sandra Geisler von der RWTH Aachen demonstrierte in „Prompt or Perish“ konkrete LLM-Anwendungen entlang des Forschungsdatenzyklus – von der Ontologieauswahl bis zur automatisierten Jupyter-Notebook-Erstellung. Ihr Appell: Trotz Effizienzgewinnen bleibe kritische Überprüfung unverzichtbar, besonders bei halluzinationsanfälligen Modellen. Markus Kaindl von der Verlagsgruppe Springer Nature skizzierte in „Beyond the Hype“ eine Zukunft, in der KI Erstentwürfe von Publikationen übernimmt und Forschende sich auf Kernkompetenzen konzentrieren. Sein Ausblick auf kostengünstige Small Language Models und KI-gestützte Trendanalysen für Verlage wurde in der Diskussion oft aufgegriffen.
In vertiefenden Sessions kristallisierten sich ambivalente Ansichten heraus: Einerseits ermöglichen LLMs automatisierte Plagiatsprüfungen, Metadaten-Vervollständigung und effizienteres Peer-Review-Management. Andererseits werfen KI-generierte Inhalte urheberrechtliche Fragen auf, kostet die Überprüfung von KI-generierten Vorschlägen Zeit und der Energieverbrauch großer Modelle nährt ökologische Bedenken. Moderatorin Wendy Patterson vom Beilstein Institut thematisierte dabei auch Fragestellungen zu Regelungen und Richtlinien bzgl. der Nutzung von KI-gestützten Tools in der Verlagslandschaft. Besonders kontrovers diskutierten Teilnehmende die Zunahme „synthetischer“ Publikationen – von maschinell aufgeblähten Textpassagen bis zu schwer nachvollziehbaren KI-generierten Datensätzen.
In der von Philippe Genêt (Deutsche Nationalbibliothek) moderierten Abschlussdiskussion verdichteten sich kontroverse Positionen zu einem zentralen Leitmotiv: KI-Tools müssen als unterstützende Instrumente begriffen werden, die menschliche Expertise ergänzen – nicht ersetzen. Die Debatte offenbarte dabei ein Spannungsfeld zwischen technologischem Potenzial und gesellschaftlicher Verantwortung.
Als Erfolg der Veranstaltung erwies sich die produktive Vernetzung unterschiedlicher Akteure: Start-Ups präsentierten KI-Lösungen z.B. für automatische Abstract-Generierung, Verlage präsentierten Qualitätssicherungssysteme, Forschende teilten ihre Erfahrungen mit Prompt-Engineering aber auch zum generellen Einsatz von KI. Dass sechs NFDI-Konsortien bei diesem Thema gemeinsam agierten unterstreicht die Relevanz des Themas im Forschungskontext und für Forschungsinfrastrukturen. Die lebhaften Debatten – vom Umgang mit synthetischen Daten bis zur Reform des Peer-Review-Systems – markieren den Beginn einer intensiveren Auseinandersetzung mit LLM in der NFDI.