2.9 KI-Unterstützung

Die Fortschritte im Bereich der Künstlichen Intelligenz, die breite Verfügbarkeit von Tools, die zunehmende Integration von KI-Funktionalität in Anwendungen und ihre einfache Erweiterbarkeit durch (optionale) KI-Komponenten bieten neue Möglichkeiten, die Softwareentwicklung zu vereinfachen und zu beschleunigen. Dabei ist jedoch nicht zu vernachlässigen, dass sich durch den Einsatz von KI neue Risiken auftun und teilweise neuartige Aspekte bedacht werden müssen.

Aber nicht nur der Entwicklungsprozess selbst verändert sich, sondern auch die Rolle von RSEs. Zusätzlich zu den bisherigen Aufgaben wird zunehmend Kompetenz im Einsatz von Künstlicher Intelligenz bzw. (Multimodal) Large Language Models in der Forschung gefragt sein.

Die rasante Entwicklung der KI erfordert eine kontinuierliche Auseinandersetzung mit den genannten Aspekten und den neuen Gegebenheiten. Dabei ist abzuwägen, bei welchen man sich auf dem Laufenden halten muss, weil es aktuell noch keine endgültigen Empfehlungen geben kann.

Empfehlung

Der Einsatz von generativer KI in Forschungsprojekten muss im Rahmen von Forschungsdaten- und Softwaremanagement geplant, Potentiale und Risiken müssen abgewogen werden.

Mit der Verwendung von bestimmten Tools sind stets Abhängigkeiten des Projekts von der Verfügbarkeit der Werkzeuge verbunden. Aufgrund des hohen Ressourcenaufwandes und der damit verbundenen Kosten ist es bei Tools mit generativer KI noch wahrscheinlicher als bei herkömmlichen Anwendungen, dass Geschäftsmodelle von Anbietern in einen Konflikt mit dem nachhaltigen Einsatz der Werkzeuge in der Forschung geraten, z. B. in Bezug auf die Quelloffenheit, Reproduzierbarkeit und kostenfreie Verfügbarkeit.

Darüber hinaus muss darauf geachtet werden, inwieweit der mithilfe von KI entwickelte Code vom Anbieter als Trainingsdaten für die Weiterentwicklung des Modells oder künftiger Modelle genutzt wird. Gibt man bei der Integration von KI Zugriff auf das eigene Code-Repository, sollte man sich zuvor bewusst machen, welche Daten man auf diese Weise zur Verfügung stellen möchte und welche nicht.

Zudem generiert die Verwendung von KI nicht nur Kosten in finanzieller, sondern auch in ökologischer Hinsicht. Der Ressourcenverbrauch potenziert sich durch das Training des Modells in der Entwicklungsphase, aber auch danach beim erneuten Training zur Verbesserung und Aktualisierung sowie durch jeden einzelnen Gebrauch.

Die Frage des Vertrauens sollte nicht nur den Anbietern gestellt, sondern auch an den konkreten KI-generierten Code gerichtet werden, welcher fehleranfällig, daher womöglich nicht ausführbar ist oder nicht zu dem Ergebnis führt, das erreicht werden sollte. Als RSE bzw. Software-Manager trägt man die Verantwortung für den Anwendungscode und muss im Einzelfall entscheiden, ob generierter Code im Detail verstanden sein muss oder zuweilen ohne weitere Prüfung übernommen werden kann.

Umsetzung

  • Bei der Auswahl von Werkzeugen mit KI-Komponenten sollen mögliche zukünftige Änderungen im Geschäftsmodell des Anbieters und deren Folgen für den Entwicklungsprozess, die Reproduzierbarkeit und Nachnutzbarkeit bereits mitbedacht werden.
  • Das Open-Source-Versprechen kommerzieller Anbieter ist generell kritisch zu hinterfragen. Nicht alle Modelle, die als open-source beworben werden, erfüllen alle nötigen Kriterien.
  • Es sollte sichergestellt sein, dass der Anbieter von KI-Software keinen Zugriff auf API Keys und andere sensible Daten wie Passwörter erhält. Es empfiehlt sich, diese in Dateien in Verzeichnissen auszulagern, auf die KI keinen Zugriff hat.
  • Der Ressourcenaufwand (Energie beim Training etc.) sollte transparent gemacht werden (vgl. dazu auch die weiterführenden Informationen unter 2.7 Publikation und Archivierung).
Weiterführende Informationen
  • Der European Open Source AI Index gibt Auskunft über die Erfüllung von Open-Source-Kriterien verschiedener LLMs.
  • In manchen Editoren mit KI-Integration lassen sich die LLM-Anbieter auswählen, z. B. Zed und Cursor.