
Der sichere Einsatz von KI im GMP-Umfeld erfordert ein Verständnis dafür, wie Sprachmodelle funktionieren und wo ihre Grenzen liegen. Modelle wie ChatGPT können Inhalte strukturieren und komplexe Themen verständlich formulieren, basieren jedoch auf statistischen Wahrscheinlichkeiten statt auf verifizierten Fakten. Dadurch können Fehlinterpretationen oder erfundene Aussagen entstehen – problematisch in einem stark regulierten Umfeld, in dem Nachvollziehbarkeit und Quellen zwingend sind.
RAG-Technologie (Retrieval-Augmented Generation) adressiert diese Schwächen, indem sie geprüfte Wissensquellen mit den Formulierungsfähigkeiten eines Sprachmodells kombiniert. Ein RAG-System sucht zunächst relevante Inhalte in einer kontrollierten, validierten Dokumentbasis und lässt das Sprachmodell ausschließlich auf dieser Grundlage antworten. Dadurch bleibt die fachliche Kontrolle erhalten und Antworten werden transparenter und zuverlässiger.
