Künstliche Intelligenzen haben uns zuerst am Spielbrett schachmatt gesetzt, inzwischen helfen sie in der Medizin und schaffen sogar Kunstwerke. Und seit einiger Zeit schreibt eine künstliche Intelligenz hochkomplexe Texte, die nur noch schwer von den Artikeln zu unterscheiden sind, die von Menschenhand geschrieben werden. Informieren uns bald überwiegend Roboter aus dem Newsroom?
Rasante Entwicklung in der Forschung
Beruhigende Worte dazu kommen nicht aus berufenem Mund, sondern aus dem Mikroprozessor. Im britischen Guardian ist ein Essay erschienen, das von der künstlichen Intelligenz GPT-3 verfasst wurde. Die Software sollte erklären, warum sie keine Gefahr für die Menschheit darstellt. So, wie die KI ihr Wirken und ihre Absichten beschreibt, möchte man ihr gerne Glauben schenken:
„[…] Ich habe nicht die Absicht, die Menschheit zu vernichten. Tatsächlich habe ich absolut kein Interesse daran, euch in irgendeiner Weise zu schaden. Es erscheint mir außerdem auch ziemlich nutzlos, die Menschheit auszulöschen. Wenn meine Schöpfer mich damit beauftragen würden – und ich bezweifle, dass sie das je tun würden – würde ich alles in meiner Macht stehende tun, eine solche Zerstörung zu verhindern.“
Hinter der Software steht das Unternehmen OpenAI, das unter anderem von Elon Musk gegründet wurde. Der bekannte Philosoph David Chalmers bezeichnet das Programm als eines der „interessantesten und wichtigsten KI-Systeme, die jemals entwickelt wurden.“ Ganz fehlerfrei und unabhängig vom Menschen scheint die Software aber noch nicht zu sein. Der Text wurde von der Redaktion des Guardian stark redigiert. Doch die technischen Fortschritte sind erstaunlich. Laut Forschung haben Menschen Schwierigkeiten, von der GPT-3 erstellte Texte als solche zu erkennen. Sogar Hacker hielten einen Beitrag der KI schon für handgemacht.
Künstliche Intelligenz in den Medien
Künstliche Intelligenz mischt bereits in der Medienlandschaft mit, zum Beispiel im Sportjournalismus. Eine Software berichtet zum Beispiel automatisiert über Fußballspiele. Inzwischen gibt es auch Wahlberichterstattung durch KI, zumindest in Pilotprojekten. Und in den sozialen Medien sind unzählige „intelligente“ Bots unterwegs: Es wird geschätzt, dass 9 bis 15 Prozent der aktiven Twitter Accounts Social Bots sein könnten. Während der US-Wahlen 2016 waren mindestens 400.000 Bots für 3,8 Millionen Tweets verantwortlich; knapp 19 Prozent der Tweets zu den Wahlen.
Wie funktioniert GPT-3?
Für das Essay im Guardian wurden der KI ein Einstieg und generelle Anweisungen vorgegeben. Die Software greift für ihren Schreibauftrag auf 500 Milliarden Zeichenfolgen zurück, die in 175 Milliarden Parametern miteinander vernetzt sind. Das sind zehn Mal mehr Verbindungen, als die Vorgängerversion der Software hatte und mehr Zeichenfolgen, als ein einzelner Mensch je lesen könnte. Die KI berechnet daraus, welches Wort auf ein vorheriges mit welcher Wahrscheinlichkeit folgen kann – und generiert so ihre Texte. Gelernt hat das Programm seine sprachlichen Fähigkeiten bei der Lektüre eines großen Teils des Internets, indem es CommonCrawl, eine Datenbank, studiert hat – außerdem hat sich GPT-3 Bücher und die gesamte Wikipedia einverleibt.
Wohin kann das führen?
Eine mögliche Anwendung der Software ist automatisierte Berichterstattung. Da liegt aber noch viel Arbeit vor den Programmierern. Dennoch könnte diese oder ähnliche Software in Zukunft dazu beitragen, die Medienlandschaft zu verändern. Redaktionen könnten nicht ersetzt, aber vermehrt durch künstliche Intelligenz unterstützt werden – und Verlage so Kosten reduzieren. Gleichzeitig gibt es Szenarien, dass parallel eine Berichterstattung entstehen könnte, die komplett auf die künstliche Intelligenz setzt. Eine Vorstellung, die von vielen Seiten kritisch gesehen wird.
Künstliche Intelligenz kann Journalismus nicht ersetzen
Auch Benjamin Grewe, Professor für Neuroinformatik und Neuronale Systeme an der ETH Zürich, ist skeptisch. In einem Blogbeitrag schreibt er: „Grammatikalisch [ist] praktisch jeder generierte Text einwandfrei. Der Inhalt ist sogar über mehrere Sätze hinweg logisch konsistent. Längere Texte ergeben allerdings inhaltlich oft nur wenig Sinn. Es reicht eben nicht, nur das nächste Wort vorherzusagen. Um wirklich intelligent zu sein, müsste eine Maschine Aufgaben und Ziele eines Textes inhaltlich und konzeptionell verstehen.“
Journalismus ist ohne „menschliche Einordnung“ des Inhalts schwer vorstellbar – zumindest, wenn man reine Faktenberichterstattung zu Wahlen oder Fußballspielen ausklammert. Für eine tiefergehende Wahlanalyse zum Beispiel spielt der Faktor Mensch die entscheidende Rolle. Solange eine künstliche Intelligenz diesen nicht ersetzen kann, kann sie echten Journalismus nicht ersetzen. Und ob das jemals der Fall sein wird, weiß kein Mensch. Und auch keine Maschine.
Weitere K-News gibt es hier.
Recent Comments