Wir sind aufgebrochen, um die Chancen dieser neuen Technologie im Broadcasting, also im rundfunkähnlichen Sendebetrieb, zu finden und natürlich sind wir uns bei allem, was wir tun, auch der möglichen Probleme, bewusst: Ob das der Umgang mit Deepfakes im Netz oder mit sogenannten Halluzinationen der Software ist, bei der entweder Hacker oder die selbstlernende Maschine falsche Dinge in das Large Language Modell einbringen. Aus diesen Gründen haben wir uns Regeln auf Basis von ethischen und journalistischen Standards gegeben. Dazu gehört ein Vier-Augen-Prinzip, wobei wir die KI zwar selbst arbeiten lassen, aber nichts veröffentlichen, was nicht Redakteure zuvor gegen gehört haben. Es gibt also so eine Art „Not-Aus-Knopf“ für den automatisierten Sendebetrieb.
Im Moment ist aber eher unser Problem, die Vollautomation aus den verschiedenen Softwarekomponenten „ruckelfrei“ an den Start zu bekommen. Deswegen werden ohnehin neben Redakteuren auch immer weitere Menschen als technischer Support bereitstehen. Aktuell optimieren wir etwa die deutsche Aussprache der KI-Stimmen, denn manche Wörter werden beispielsweise noch englisch ausgesprochen. Und ganz allgemein bleibt es spannend, ob die amerikanische KI die Komplexität der deutschen Sprachmelodie entschlüsseln und nachbilden kann.