[vc_row][vc_column][vc_custom_heading text=“Wenn aus Daten Texte werden“ font_container=“tag:h1|font_size:48|text_align:left“ use_theme_fonts=“yes“ css=“.vc_custom_1598447337868{margin-top: -25px !important;}“][vc_custom_heading text=“Automatisierte Sprache in den Medien“ font_container=“tag:h2|font_size:28|text_align:left|color:%23676b6d“ use_theme_fonts=“yes“ css=“.vc_custom_1598447323114{padding-bottom: 10px !important;}“][vc_column_text]
Alexander Siebert, Johannes Sommer, Kristin Strauch, Retresco GmbH
[/vc_column_text][ultimate_spacer height=“15″ height_on_tabs=“15″ height_on_tabs_portrait=“15″ height_on_mob_landscape=“15″ height_on_mob=“15″][/vc_column][/vc_row][vc_row][vc_column][vc_custom_heading text=“Kurz & Bündig“ font_container=“tag:h2|font_size:34|text_align:left“ use_theme_fonts=“yes“ css=“.vc_custom_1598268967432{margin-top: -25px !important;}“ el_class=“box-headline“][vc_row_inner el_class=“box-content-wrapper“][vc_column_inner][vc_column_text]
Daten lassen sich in Sprache und Text „übersetzen“. Natural Language Generation ist mittlerweile für deutsche Medien deshalb interessant, weil das Verfassen von ständig wiederkehrenden Meldungen durch einen Roboter Redakteuren zeitlich neue Freiräume schafft. Dennoch gibt es ethische Herausforderungen – vor allem, wenn per KI Fake News geschaffen werden.
[/vc_column_text][/vc_column_inner][/vc_row_inner][/vc_column][/vc_row][vc_row css=“.vc_custom_1519752670572{margin-top: -10px !important;}“][vc_column][ultimate_spacer height=“30″ height_on_tabs=“15″ height_on_tabs_portrait=“15″ height_on_mob_landscape=“15″ height_on_mob=“15″][vc_column_text]
Sprache oder Text kann mittels maschinellen Lernens automatisiert werden. Diesen Fakt machen sich mittlerweile auch Medien zunutze. Einfache, immer wiederkehrende Meldungen, wie beispielsweise Meldungen über Fußballspiele oder Börsennachrichten, müssen heute nicht mehr von Redakteuren verfasst werden – das übernimmt die Maschine.
[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]
Rund 1,7 Millionen Fußballspiele finden pro Saison in Deutschland statt, wöchentlich sind dies – quer durch alle Fußballligen – bis zu 80.000 Partien. Zu jeden einzelnen dieser Spiele wird innerhalb von wenigen Sekunden nach Abpfiff ein einzigartiger und druckfertiger Spielbericht geschrieben, ohne dass ein Redakteur Zeit und Fleiß investieren musste. Möglich macht dies der Einsatz Künstlicher Intelligenz im Sportjournalismus: Was für Menschen kaum zu bewerkstelligen ist, übernimmt eine KI-basierte Technologie automatisiert und auf Knopfdruck. Auch andere Bereiche setzen bereits auf die maschinelle Erstellung von Texten. Beispiele sind etwa Produktbeschreibungen für den E-Commerce, Arbeitszeugnisse für Personalabteilungen, Wetterberichte, Verkehrsmeldungen oder Reports für das Finanz- und Bankwesen.
Technologische Fortschritte im Bereich Natural Language Processing (NLP) haben diese Entwicklung in den letzten Jahren ermöglicht. Als eines der herausforderndsten und spannendsten Anwendungsgebiete der Künstlichen Intelligenz widmet sich NLP der maschinellen Verarbeitung natürlicher Sprache und ermöglicht somit die Automatisierung eines so grundlegenden kulturellen Guts wie unserer Sprache.
[/vc_column_text][vc_custom_heading text=“Was sind KI-basierte Sprachtechnologien und welche Rolle spielen sie in der Praxis?“ font_container=“tag:h3|font_size:28|text_align:left“][vc_column_text]
Das Ziel dieser interdisziplinären Querschnittsdisziplin zwischen Linguistik und Künstlicher Intelligenz besteht in der Entwicklung von Algorithmen, die Elemente von menschlicher Sprache aufschlüsseln und maschinell verarbeiten. Das heißt: All das, was Menschen schriftlich oder verbal ausdrücken, kann NLP in digital lesbare Informationen übersetzen. Dieser Prozess funktioniert jedoch auch in die umgekehrte Richtung: Daten lassen sich auch in Sprache oder Text verarbeiten. Diese beiden Prozessrichtungen markieren die beiden Teildisziplinen, in denen NLP aufgeteilt werden kann: Natural Language Understanding (kurz: NLU) und Natural Language Generation (auch: NLG oder Automatische Sprach- und Textgenerierung).
[/vc_column_text][vc_custom_heading text=“KI-basierte Sprachtechnologien: Wenn aus Texten Daten werden – und umgekehrt“ font_container=“tag:h3|font_size:28|text_align:left“][vc_column_text]
Während Natural Language Generation Daten zu Text verarbeitet, verfolgt man mit dem Einsatz von Natural Language Understanding das Ziel, einen natürlichsprachlichen Text zu “verstehen” und daraus Informationen zu extrahieren. Der Oberbegriff NLU lässt sich für eine Vielzahl von Computeranwendungen nutzen, die von kleinen, relativ einfachen Aufgaben, wie kurzen Befehlen an Roboter, bis hin zu hochkomplexen Aufgaben wie dem vollständigen Verständnis von Zeitungsartikeln reichen. Medienunternehmen beispielsweise setzen die Technologie bereits seit einigen Jahren erfolgreich bei der automatisierten semantischen Analyse von journalistischen Inhalten ein.
Natural Language Generation hingegen hat das Ziel, einen Text automatisiert aus Daten zu erstellen. In all jenen Bereichen, wo strukturierte Daten anfallen – beispielsweise im E-Commerce, in der Finanzwelt oder in der Berichterstattung für Sport, Wetter oder Wahlen – können NLG-Programme in Sekundenschnelle aus Daten leserfreundliche Texte erstellen. Bereits jetzt setzen einige Nachrichtenportale und Medienverlage auf den sogenannten Roboterjournalismus.
[/vc_column_text][vc_custom_heading text=“Wie funktioniert Natural Language Generation?“ font_container=“tag:h3|font_size:28|text_align:left“][vc_column_text]
Das automatische Schreiben von menschlich klingenden Texten ist anspruchsvoll. Heutige NLG-Systeme können mithilfe von Künstlicher Intelligenz anspruchsvolle Ansätze für die Sprachgenerierung verfolgen und damit auch komplexere Anwendungsfälle angehen. So übernehmen sie – insbesondere im Bereich der datenbasierten Berichterstattung – die Kommunikation in großer Anzahl und hochwertiger Qualität. Auf diese Weise entstehen durch den Einsatz von NLG, etwa in der Fußballberichterstattung, computergenerierte Texte, die sich in der Wahrnehmung der Leser nicht von Berichten unterscheiden lassen, die von einem (menschlichen) Redakteur verfasst wurden.
[/vc_column_text][vc_custom_heading text=“Natural Language Generation im Journalismus – ebenso viele Anwendungsbereiche wie Mehrwerte“ font_container=“tag:h3|font_size:28|text_align:left“][vc_column_text]
Ob in der Bundesliga oder Kreisklasse – Daten wie die oben genannten Fakten generiert jedes Spiel. Wo menschliche Journalisten Spielberichte zu unterklassigen Begegnungen aus Zeit- und Kostengründen nicht mehr schreiben können, kann NLG helfen: Online-Medien mit regionalem Fokus sind so in der Lage, thematisch neue Bereiche zu erschließen und damit die Reichweite zu erhöhen. Gerade im Lokaljournalismus ergeben sich somit Potenziale, die Berichterstattung effizient und skalierbar zu gestalten.
In den USA experimentieren Online-Medien schon länger mit Roboterjournalismus. Bereits 2011 stellte die Los Angeles Times „QuakeBot“ vor, ein an den Erdbebenmeldedienst des US Geological Survey angeschlossenes System. Wenn die „Engine“ eine Benachrichtigung über ein Erdbeben erhält, generiert sie automatisch eine Story mit den wichtigsten Informationen über Zeit, Ort und Größe. Die Washington Post setzte das hauseigene Tool „Heliograf“ ein, um im Rahmen der Olympischen Spiele 2016 automatisiert Updates im internen Live-Blog und dem Twitter-Kanal zu veröffentlichen. Nach dem erfolgreichen Test berichteten die Roboter von Begegnungen aus dem nordamerikanischen High School Football und der US-Wahl im November des gleichen Jahres.
[/vc_column_text][vc_single_image image=“22517″ img_size=“410×600″ add_caption=“yes“ alignment=“center“][vc_custom_heading text=“Vor welchen (digital-)ethischen Herausforderungen steht Natural Language Generation?“ font_container=“tag:h3|font_size:28|text_align:left“][vc_column_text]
Als relativ junge Technologie steht Natural Language Generation einerseits vor einer Fülle an Möglichkeiten, andererseits auch – und damit ergeht es ihr wie den meisten neuen Technologien – vor (digital-)ethischen Herausforderungen. So zog im Februar 2019 die US-amerikanische Non-Profit-Organisation OpenAI mediale Aufmerksamkeit auf sich: Die Forschungseinrichtung entwickelte ein KI-basiertes Sprachmodell namens Gpt2, das Texte von rund acht Millionen Websites – insgesamt 40 Gigabyte Daten – analysierte und anschließend automatisiert Texte verfassen sollte. Von den Ergebnissen waren die Forscher selbst überrascht: Der KI-Textgenerator lieferte qualitativ so gute Texte, dass sich die Forscher aus Sorge um Missbrauch dazu entschlossen haben, das Sprachmodell nicht bzw. nur in einer abgespeckten Version zu veröffentlichen.
Die Bedenken der Forscher bezogen sich hauptsächlich darauf, dass das System für die kostengünstige und massenhafte Produktion und Distribution von Fake News in Sozialen Netzwerken missbraucht werden könnte. Damit zeigt der Fall, welche ethischen Herausforderungen mit dem Einsatz von KI einher gehen können. Sowohl Gesellschaft als auch Anwender sollten sich dessen bewusst sein, um die Chancen, die NLG bietet, bestmöglich zu nutzen, ohne die potentiell negativen Folgen zu ignorieren.
[/vc_column_text][vc_custom_heading text=“Mensch-Maschine-Kooperation: Journalismus zwischen Zukunftsfähigkeit und Tradition“ font_container=“tag:h3|font_size:28|text_align:left“][vc_column_text]
In Zukunft werden sich Technik und Mensch auch im Journalismus noch stärker ergänzen, etwa wenn es darum geht, die Produktion von Inhalten noch stärker als bisher durch Algorithmen durchführen zu lassen. Hier setzen spannende wirtschaftliche Möglichkeiten an, andererseits stellen sich auch zahlreiche Fragen von soziopolitischer Relevanz, beispielsweise welche Einfluss KI-basierte Sprachtechnologien auf den Arbeitsalltag von Journalistinnen und Journalisten haben werden. Ein wichtiger Aspekt, der bei Diskussionen nie vergessen werden sollte: Algorithmen werden keineswegs die traditionellen Journalistinnen und Journalisten ersetzen. Vielmehr bietet Roboterjournalismus die Chance, Redakteurinnen und Redakteure von Routinearbeiten zu entlasten und mehr Zeit für Qualitätsinhalte zu schaffen.
Schon heute übernehmen Algorithmen die Berichterstattung über Bereiche, die Journalistinnen und Journalisten nicht bearbeiten können – sei es aus Kostengründen, weil die Arbeit zu monoton, oder weil die Zielgruppe zu klein wäre. Man denke beispielsweise an kleinere olympische Sportarten, untere Fußball-Ligen oder Verkehrsmeldungen. Das Erzählen von Geschichten mit Kreativität, Empathie, Raffinesse und Ironie, das Schreiben von pointierten Kommentaren und scharfsinnigen Analysen bleibt nach wie vor die Kernkompetenz der Menschen – und gehört wohl nebenbei bemerkt auch zu den bevorzugten Tätigkeiten der Journalistinnen und Journalisten.
Die Zukunft des sogenannten Roboter- journalismus besteht deshalb keinesfalls darin, die (menschlichen) Mitarbeiterinnen und Mitarbeiter zu ersetzen, sondern sie zu unterstützen, um ihnen Zeit und Raum für wichtige und sinnstiftende Tätigkeiten zu geben. Während Technik ungeliebte Routinetätigkeiten übernimmt, können sich Journalistinnen und Journalisten ihrer eigentlichen Kernarbeit widmen. Ein solches kybernetisches (ergo: nicht ersetzendes) Zusammenspiel von KI und maschinellen Prozessen auf der einen, und menschlicher Kreativität und Kompetenz auf der anderen Seite, kann auf diese Weise das journalistische Angebot für Leserinnen und Lesern verbessern und zeitgleich den Arbeitsalltag von Journalistinnen und Journalisten angenehmer gestalten. Eine Win-Win-Situation für alle Beteiligten.
[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][ult_dualbutton btn_hover_style=“Style 2″ btn_border_style=“solid“ btn_color_border=“#ffffff“ btn_border_size=“2″ btn_alignment=“left“ dual_resp=“off“ button1_text=“Einzelheft kaufen“ icon_link=“url:https%3A%2F%2Fwww.aws-institut.de%2Fim-io%2Fproduct%2Fquantified-everything%2F|title:Quantified%20Everything||“ btn1_background_color=“#f3f3f3″ btn1_bghovercolor=“#f07d00″ icon=“Defaults-book“ icon_size=“22″ icon_color=“#f07d00″ icon_hover_color=“#ffffff“ button2_text=“Jetzt abonnieren“ btn_icon_link=“url:https%3A%2F%2Fwww.aws-institut.de%2Fim-io%2Fabo-imio%2F|title:Abo||“ btn2_background_color=“#f3f3f3″ btn2_bghovercolor=“#f07d00″ btn_icon=“Defaults-chevron-right“ btn_icon_size=“22″ btn_icon_color=“#f07d00″ btn_iconhover_color=“#ffffff“ divider_text=“oder“ divider_text_color=“#f07d00″ divider_bg_color=“#ffffff“ btn1_text_color=“#f07d00″ btn1_text_hovercolor=“#ffffff“ btn2_text_color=“#f07d00″ btn2_text_hovercolor=“#ffffff“ title_font_size=“desktop:20px;“ btn_border_radius=“30″ title_line_ht=“desktop:22px;“ btn_width=“280″][/vc_column][/vc_row]