KI-Infrastruktur für Digitale Autonomie an Hochschulen

Benjamin Paaßen, Stefanie Go, Maximilian Mayer, Benjamin Kiesewetter, Anne Krüger, Jonas Leschke, Christian M. Stracke für das Forschungsnetzwerk Artificial Intelligence and Digital Autonomy in Research and Education (AIDARE).

Click here for the English version.

Für die Zukunft von Forschung und Lehre an Hochschulen ist der Zugang zu großen Sprachmodellen (LLMs) wesentlich. Daher sollten Hochschulen Abhängigkeiten von proprietären LLM-Anbieter*innen vermeiden und stattdessen eine diversifizierte KI-Infrastruktur aufbauen, die digitale Autonomie von Lernenden, Lehrenden, Forschenden und den Hochschulen als Institutionen fördert. Dieses Dokument richtet sich an Hochschulleitungen und schlägt strategische Schritte in Richtung solch einer Infrastruktur vor, die sich in der nahen Zukunft umsetzen lassen und greifbare Fortschritte für die digitale Autonomie versprechen.

Warum digitale Autonomie?

Im Hinblick auf künstliche Intelligenz ist die digitale Autonomie eine Kernaufgabe der Hochschulen: Als institutionen sollten Hochschulen unabhängig vom Einfluss der KI-Industrie sein; Forschende sollten frei sein, ihre Forschungsmethoden und -ziele selbst zu wählen statt sich von Produkten einschränken zu lassen; Lehrende sollten frei wählen können, ob und wie sie KI-Systeme in die Lehre einbauen wollen, ohne dafür die Daten ihrer Studierenden ins Ausland schicken zu müssen; und Studierende sollten die Möglichkeit haben, verantwortliche Bürger*innen und selbstbestimmte Expert*innen zu werden, ohne ihre kognitiven Tätigkeiten und akademische Verantwortung an KI-Werkzeuge abzugeben. Deshalb sollten Hochschulen eine KI-Infrastruktur aufbauen, die digitale Autonomie fördert statt ihr zu schaden; Autonomie im Sinne von Selbstbestimmung, epistemischer Eigenständigkeit und Gerechtigkeit, akademischer Verantwortung und eigener Kompetenz (im Fach und über Fachgrenzen hinweg). Digitale Autonomie in diesem umfassenden Sinne betrifft alle universitären Bereiche: Lehre, Forschung, Verwaltung, Leitung, Ethos. Dieses Dokument fokussiert sich auf KI-Infrastruktur, also die technologischen Voraussetzungen für digitale Autonomie, wie etwa algorithmische Transparenz und Änderbarkeit. Wir betonen die Rolle der Hochschulen und ihrer Mitglieder als verantwortliche Akteur*innen, die die Zukunft der KI-Nutzung mitgestalten können – statt KI als überwältigende Welle von außen zu sehen – und wir zeigen kurz- und mittelfristige Schritte auf, mit denen Hochschulen merkliche Fortschritte in Sachen digitale Autonomie erreichen können.

Der Status Quo: LLM-Chat-Interfaces

Viele deutsche Universitäten haben bereits erste Schritte in Richtung digitaler Autonomie getan: Sie stellen eigene Web-Seiten bereit, um mit LLMs zu chatten, zum Beispiel HAWKI[1] oder KI:connect.nrw[2]. Solche Seiten stellen sicher, dass die Account-Informationen der Hochschulangehörigen an den Hochschulen verbleiben und nur die Chat-Anfragen selbst an Dritte geschickt werden, bei denen die eigentlichen LLMs gehostet werden. Dies ist ein kritischer erster Schritt für mehr Datenschutz und weniger Abhängigkeit und kostet die Hochschulen beinahe nichts (außer die reinen LLM-Nutzungsgebühren, die ohnehin angefallen wären). Wir empfehlen, dass Hochschulen solche Chat-Interfaces für alle Hochschulangehörigen verfügbar machen, damit alle eine Alternative zu proprietären Systemen haben. Allerdings betonen wir auch, dass KI-Nutzung freiwillig bleiben muss und in bestimmten Kontexten sogar von KI-Nutzung abzuraten ist, etwa wenn in der Lehre zunächst Grundwissen und -kompetenzen aufgebaut werden müssen, um KI-Ausgaben beurteilen zu können.

Der nächste Schritt: Das Hosting offener Modelle

Chat-Interfaces allein reichen nicht aus als technische Grundlage für digitale Autonomie. Ohne weitere Schritte bleiben Hochschulen von proprietären LLM-Anbieter*innen abhängig. Die Wettbewerbsposition dieser Anbieter*innen wird durch die Großverträge mit Hochschulen gestärkt, nicht zuletzt weil Hochschulangehörige während der Nutzung wertvolle forschungs- und lehrbezogene Daten in die Systeme eingeben. Dadurch können sich Abhängigkeiten verstärken und Lock-In-Effekte eintreten. Schließlich bleiben auch Datenschutzbedenken, weil auch die Chat-Nachrichten selbst personenbeziehbare (oder anderweitig sensitive) Daten enthalten können. Deshalb braucht es eine diversifizierte KI-Infrastruktur mit mehreren Anbieter*innen und LLMs.

Einige Hochschulen haben deshalb bereits Verträge mit Hochleistungsrechenzentren (engl.: high performance computing centers, HPCs) abgeschlossen, die für sie LLMs mit offenen Parametern bereitstellen, etwa die Llama-Modelle von Meta, die DeepSeek-Modelle, oder Modelle, die noch offener sind, wie das Schweizerische Apertus[3]. Solche Verträge haben entscheidende Vorteile für Hochschulen: Sie reduzieren Datenschutzrisiken, können den Zugang zu transparenten Modellen ermöglichen und erlauben eine verlässlichere Kostenkontrolle. In Deutschland gibt es bereits best-practice-Beispiele, insbesondere die GWDG[4], die bereits dutzende Hochschulen bedient, aber auch Initiativen wie Open Source-KI.nrw[5], die sich bereits auf den Weg gemacht haben. Hochschulen sollten Verträge mit solchen offenen LLM-Anbieter*innen abschließen, um ihren Angehörigen LLM-Zugang ohne Datenschutz- oder Abhängigkeitsbedenken zu ermöglichen. Dort, wo solche Anbieter*innen noch nicht verfügbar sind, sollten Hochschulen Partnerschaften mit Hochleistungsrechenzentren aufbauen, um sie zu offenen LLM-Anbieter*innen zu machen. Diese Strategie der Partnerschaften ist auch von der GWDG im Rahmen ihres Papiers zu KI-Grundversorgung empfohlen worden[4]. Im Sinne der digitalen Autonomie empfehlen wir eine geteilte Bereitstellung an mehreren HPC-Standorten, das heißt mehr technische Redundanz, mehr Kompetenzaufbau und keine Abhängigkeit von Einzelstandorten.

Forschung unterstützen mit offenen LLM-Schnittstellen

Zwar ermöglicht ein Chat-Interface bereits kleine Forschungsanwendungen, aber für die meisten Einsatzszenarien in der Forschung braucht es mehr, wenn es etwa um die automatische Annotation oder Klassifikation großer Mengen Text geht, um automatisches Transkribieren oder den Aufbau eigener Forschungsprototypen für interaktive intelligente Systeme (Robotik, intelligente Assistenten, etc.), die LLMs als Teilkomponenten brauchen. Forschungsanwendungen von LLM sind nicht auf Informatik oder Computerlinguistik beschränkt sondern reichen weit in die Natur-, Sozial- und Geisteswissenschaften hinein. Die Forschung ist gerade erst im Prozess, valide Forschungsmethoden mit LLMs aufzubauen. Gute wissenschaftliche Praxis setzt LLMs mit voller Transparenz voraus.

Für die Nutzung in der Forschung braucht es insbesondere eine Programmierschnittstelle, über die sich auch große Mengen an Anfragen stellen lassen (engl.: application programming interface, API). Aktuell wird ein solcher API-Zugang beinahe ausschließlich von proprietären Anbieter*innen bereitgestellt. Das macht die Forschung jedoch abhängig von Anbieter*innen, die ihre Trainingsdaten, LLM-Architektur und die umgebende Software geheim halten und damit die Forschung einschränken: sowohl im Hinblick auf epistemische Eigenständigkeit, etwa der kritischen Auseinandersetzung mit den biases von LLMs, als auch im Hinblick auf gute wissenschaftliche Praxis, etwa Transparenz und Reproduzierbarkeit. Um eine Alternative zu bieten, die die digitale Autonomie der Forschenden fördert, müssen HPCs so ausgestattet werden, dass sie der Forschung API-Zugang für große Mengen an Anfragen bereit stellen können, also wesentlich mehr als die 10 Anfragen pro Person und Tag, die aktuell geschätzt werden[4]. Dieser API-Zugang kommt hinzu zu den traditionellen Dienstleistungen der HPCs. APIs für Sprachmodell-Anfragen dienen dem Prototyping und kleineren Experimenten (mit einigen zehntausend Datenpunkten). Jedoch werden auch klassische Dienstleistungen für große, merhstündige bis mehrwöchige Rechenaufgaben weiterhin nötig sein, nicht zuletzt um LLMs zu trainieren und zu fine-tunen.

Hochschulen sollten strategische Investitionen beantragen und von der Politik einfordern, um HPCs mit ausreichend Hardware und Personal für das große Volumen zukünftiger Forschungsanfragen auszustatten und für all ihre Forschenden API-Zugang mit entsprechenden Volumina bereitstellen zu können. So kann auch die Autonomie der Forschung im Hinblick auf LLMs sichergestellt werden, das heißt: Die Freiheit zu wählen, ob und welche LLMs eingesetzt werden sollen und die Freiheit, alle Aspekte der Modelle zu erforschen.

LLM-Integration in offene digitale Lehrwerkzeuge

In der Lehre stellen Chatbot-Interfaces bereits eine wertvolle Alternative zu proprietären Angeboten dar. Allerdings benötigen viele Lehranwendungen zusätzliche Funktionalität, etwa Tutoring-Chatbots, die Antworten und Hinweise nur basierend auf dem tatsächlichen Lehrmaterial des Kurses geben sollen. Bei der Nutzung solcher Bildungstechnologien sollten Lernende und Lehrende nicht gezwungen sein, ihre Daten an proprietäre Anbieter*innen zu übermitteln. Im Gegenteil sollten Lernende und Lehrende selbst entscheiden können, wie die Prompts für LLMs konfiguriert sind und welche Daten für Lernen und Lehren genutzt werden. Open Source-KI.nrw und GWDG haben bereits Prototypensysteme in dieser Richtung entwickelt und die Praxisprojekte von KI:edu.nrw haben gezeigt, wie solche Systeme sich in der Hochschullehre einsetzen lassen[6]. Hochschulen sollten Open Source-Entwicklungen unterstützen, die offene digitale Lehrwerkzeuge mit den Möglichkeiten offener Sprachmodelle verknüpfen und ihren Lehrkräften und Studierenden die Möglichkeit geben, solche Werkzeuge in ihre Veranstaltungen einzuführen. Wir betonen, dass wir nicht für eine Pflicht, sondern für eine autonomie-respektierende Möglichkeit eintreten, LLMs zu nutzen. Hochschulen sollten Lernenden und Lehrenden die Möglichkeit bieten, über Art und Umfang der LLM-Nutzung in ihren jeweiigen Lernkontexten zu diskutieren und damit zu einer informierten Entscheidung zu gelangen.

Zeitlicher Rahmen

Wir sind überzeugt, dass Hochschulen eigene Chat-Interfaces und Verträge für die Nutzung offener Sprachmodelle sofort oder zumindest in wenigen Monaten erreichen können. Für den API-Zugang für Forschende und offene digitale Lehrwerkzeuge mit LLM-Integration gibt es bereits Prototypen, und Hochschulen sollten sich für Investitionen und Entwicklungen in diesen Bereichen einsetzen – etwa mit Anträgen und politischen Forderungen – und bereits Partnerschaften mit möglichen zukünftigen Anbieter*innen für APIs (etwa HPCs) und Lehrwerkzeuge aufbauen. Bei koordinierter und dauerhafter Arbeit lassen sich auch diese weiteren Schritte binnen zwei Jahren erreichen. Wir betonen, dass dieses Dokument nur kurz- und mittelfristige Schritte beschreibt, um die technischen Voraussetzungen für digitale Autonomie in Hochschulen zu schaffen. Hochschulen werden weitere Schritt ein Lehre, Forschung, Verwaltung und Leitung gehen müssen. Außerdem wird die Politik auf Landes-, Bundes- und sogar europäischer Ebene handeln müssen, wenn es um eine autonomieförderliche KI-Infrastruktur, die Sammlung von Trainingsdaten und das Training der Modelle selbst gehen soll.

Verwandte Initiativen

Mit diesen Forderungen stehen wir nicht allein. Unsere Empfehlungen stimmen im Kern überein mit dem Strategiepapier von KI:edu.nrw[7], dem Sifterverband-Aufruf für einen “KI-Zukunftsfonds Hochschule”[8], dem GWDG-Papier zur “KI Grundversorgung”[4] und den Expert*innen-Anhörungen des Hochschulforums Digitalisierung zu “Souveränen KI-Infrastrukturen”. Weitere Initiativen im Bereich Hochleistungsrechnen für KI sind die AI (Giga-)facotries (z.B. HammerHAI[9]), das JUPITER system[10] des FZ Jülich und supercomputing for LLM training in Darmstadt[11]. Verwandte Initiativen für das Training offener Sprachmodelle in Europa sind OpenEuroLLM[12], die Swiss AI Initiative[3] und Open GPT-X[13]. In der grundlegenden Haltung, nämlich die digitaler Autonomie aller Universitätsangehörigen zu fördern und der Skepsis gegenüber KI-Hype, stimmt dieses Dokument mit den Richtlinien “Ethical AI in Higher Education” für Lehrende[14] und Lernende[15] überein (beide Teil des Netzwerks “Ethical Use of AI”[16]). All diese Initiativen (und viele weitere) spielen eine Rolle beim Aufbau einer KI-Infrastruktur, die digitale Autonomie an Hochschulen fördert.


[1] https://hawki.hawk.de/ 

[2] https://kiconnect.pages.rwth-aachen.de/pages/ 

[3] https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2025/09/medienmitteilung-apertus-ein-vollstaendig-offenes-transparentes-und-mehrsprachiges-sprachmodell.html 

[4] https://kisski.gwdg.de/dok/grundversorgung.pdf 

[5] https://www.oski.nrw/ 

[6] https://ki-edu-nrw.ruhr-uni-bochum.de/ueber-das-projekt/phase-2/praxis-transferprojekte/aktuelle-praxisprojekte/ 

[7] https://ki-edu-nrw.ruhr-uni-bochum.de/wp-content/uploads/2025/07/2025_07_09_KI-Strategiepapier_NRW.pdf 

[8] https://www.stifterverband.org/sites/default/files/2025-02/ki-zukunftsfords_hochschulen_2026-2030.pdf 

[9] https://www.hlrs.de/press/detail/hammerhai-to-create-an-ai-factory-for-science-and-industry 

[10] https://www.fz-juelich.de/de/aktuelles/news/pressemitteilungen/2025/europas-ki-turbo-jupiter-ai-factory 

[11] https://hessian.ai/supercomputer-for-cutting-edge-ai-research-in-hesse/ 

[12] https://openeurollm.eu/ 

[13] https://opengpt-x.de/en/ 

[14] https://doi.org/10.5281/zenodo.10995669 (German version: https://doi.org/10.5281/zenodo.10793844)

[15] https://doi.org/10.5281/zenodo.15880726 

[16] https://ethischeki.ecompetence.eu