Berlin (ots) -
Kürzlich hat die renommierte Zeitung New York Times bekannt gegeben, OpenAI's GPTBot den Zugriff auf ihre Inhalte zu verwehren. Der Bot dient dazu, für die KI-Plattform GPT-4 fortlaufend neue Inhalte zu sammeln. Das könnte weitreichende Konsequenzen für die Nutzer von GPT-basierten Tools wie ChatGPT haben. Insbesondere Werbetexter, die KI für ihre Arbeit einsetzen, sollten jetzt hellhörig werden.
"Ein mangelndes Verständnis der rechtlichen Rahmenbedingungen kann nicht nur finanzielle Risiken, sondern auch einen Vertrauensverlust bei den Kunden mit sich bringen", warnt Philipp Follmer. Er hat sich darauf spezialisiert, Menschen dabei zu helfen, durch das Schreiben von Texten unabhängige Geschäfte zu etablieren. Laut ihm könnte ein rechtlicher Sieg der New York Times eine Kette von Ansprüchen anderer Rechteinhaber auslösen. Worauf Werbetexter bei der Nutzung von KI jetzt unbedingt achten sollten, verrät er im folgenden Artikel.
New York Times schützt ihr Urheberrecht
Der drastische Schritt der New York Times, ChatGPT aus seiner Onlineausgabe auszusperren, ist das Resultat eines Problems, das so alt ist wie der Chatbot selbst: Da ChatGPT überall im Internet Bausteine und Informationen sucht und zu einer neuen Antwort zusammensetzt, ist im Nachhinein nur schwer zu klären, woher die Textschnipsel stammen.
Entsprechend besteht immer die Gefahr, dass der Bot urheberrechtlich geschütztes Material für sein Antwortkonstrukt verwendet - zum Beispiel Artikel aus Zeitungen oder Magazinen. In solchen Fällen würde sich auch ein Texter, der den Output von ChatGPT unverändert weiterverwendet, unbeabsichtigt eines Plagiats schuldig machen und müsste schlimmstenfalls sogar mit rechtlichen Konsequenzen rechnen.
Keine Quellenangaben, kein Fakten-Check - wenn KI für Probleme sorgt
Wenngleich derzeit noch keine Präzedenzfälle existieren, in denen Texter wegen Urheberrechtsverstößen durch ChatGPT belangt wurden, gibt es dennoch bereits jetzt Konsequenzen, wenn unachtsam mit KI gearbeitet wird. So verwenden zahlreiche Universitäten schon heute Tools, um KI-generierte Inhalte in wissenschaftlichen Arbeiten aufzuspüren und zu ahnden, während Google KI-Texte mit einem schlechteren SEO-Ranking abstraft.
Gleichzeitig wird bei der Recherche mit ChatGPT zum Problem, dass die KI die verwendeten Informationen nicht auf ihren Wahrheitsgehalt überprüft, sondern ungefiltert alles verwendet, das zum Input passt. Somit fällt die Gewährleistung der Wahrhaftigkeit weg, die ansonsten durch renommierte Quellen gegeben ist. Dies führt teils zu dubiosen Antwortkonstrukten, die auch Inhalte aus Quellen verwenden, welche bekannt dafür sind, Falschinformationen zu verbreiten.
Texter in der Sorgfaltspflicht
Für Texter ist also gleich in zweierlei Hinsicht Vorsicht geboten, wenn sie ChatGPT bei der Arbeit verwenden. Einerseits sollten natürlich KI-generierte Texte nicht eins zu eins übernommen werden - stattdessen muss die Antwort der KI immer umgeschrieben werden, um rechtlich auf der sicheren Seite zu sein. Es ist deshalb anzuraten, ChatGPT nicht als reinen Textgenerator, sondern primär zur Grundlagenrecherche zu verwenden.
Dabei müssen zudem sämtliche Informationen, die von ChatGPT stammen, umso genauer auf ihre Richtigkeit überprüft werden. Es empfiehlt sich also, selbst anhand verlässlicher Quellen zu verifizieren, ob Zahlen und Fakten im Output der KI der Wirklichkeit entsprechen, bevor damit gearbeitet wird. Nur so lässt sich vermeiden, dass Fehlinformationen weitergegeben werden.
Nichts ungefiltert von der KI übernehmen
Zuletzt ist bei jedem Text auch entscheidend, für wen er geschrieben ist. Zwar kann ChatGPT grundlegende Anpassungen vornehmen, um auf eine bestimmte Zielgruppe einzugehen, jedoch kann die KI nicht den persönlichen Stil eines professionellen Autors kopieren. Dies ist es jedoch schlussendlich, wofür die Kunden menschliche Texter bezahlen - Texte, die nicht nur sachlich korrekt, sondern wirklich einzigartig und spezifisch auf die Zielgruppe zugeschnitten sind.
Am besten fährt mit ChatGPT also, wer lernt, die KI richtig zu bedienen und in seine Tätigkeit einzubinden. So kann und sollte niemals die KI den Löwenanteil der Arbeit übernehmen - dessen müssen sich Texter immer bewusst sein. Es gilt daher, maschinell erstellte Inhalte selbst zu prüfen und um eine persönliche Note zu ergänzen, um die bestmöglichen Ergebnisse zu erzielen.
Über Philipp Follmer:
Philipp Follmer ist einer der erfolgreichsten Copywriter Europas und Gründer der Freedom Writer Academy. Diese Online-Ausbildung zeigt Menschen, wie sie sich als Quereinsteiger durch das Schreiben von Texten in wenigen Monaten ein erfolgreiches Business aufbauen und ihren Traum vom freien und selbstbestimmten Leben verwirklichen können. Er selbst lebt von seiner Tätigkeit als Copywriter bereits seit über sechs Jahren selbstbestimmt und ortsunabhängig. Die Teilnehmer lernen in seiner Academy nicht nur die Fähigkeiten des Copywritings, sondern auch, wie sie planbar Kunden gewinnen und ihr Business langfristig führen können. Mehr Informationen dazu unter: www.freedom-writer.de
Pressekontakt:
Philipp S. Follmer Copywriting
Philipp Follmer
E-Mail: info@freedom-writer.de
Webseite: https://philippfollmer.de/
Pressekontakt:
Ruben Schäfer
E-Mail: redaktion@dcfverlag.de
Original-Content von: Philipp S. Follmer Copywriting, übermittelt durch news aktuell
Originalmeldung: https://www.presseportal.de/pm/169800/5620874
Kürzlich hat die renommierte Zeitung New York Times bekannt gegeben, OpenAI's GPTBot den Zugriff auf ihre Inhalte zu verwehren. Der Bot dient dazu, für die KI-Plattform GPT-4 fortlaufend neue Inhalte zu sammeln. Das könnte weitreichende Konsequenzen für die Nutzer von GPT-basierten Tools wie ChatGPT haben. Insbesondere Werbetexter, die KI für ihre Arbeit einsetzen, sollten jetzt hellhörig werden.
"Ein mangelndes Verständnis der rechtlichen Rahmenbedingungen kann nicht nur finanzielle Risiken, sondern auch einen Vertrauensverlust bei den Kunden mit sich bringen", warnt Philipp Follmer. Er hat sich darauf spezialisiert, Menschen dabei zu helfen, durch das Schreiben von Texten unabhängige Geschäfte zu etablieren. Laut ihm könnte ein rechtlicher Sieg der New York Times eine Kette von Ansprüchen anderer Rechteinhaber auslösen. Worauf Werbetexter bei der Nutzung von KI jetzt unbedingt achten sollten, verrät er im folgenden Artikel.
New York Times schützt ihr Urheberrecht
Der drastische Schritt der New York Times, ChatGPT aus seiner Onlineausgabe auszusperren, ist das Resultat eines Problems, das so alt ist wie der Chatbot selbst: Da ChatGPT überall im Internet Bausteine und Informationen sucht und zu einer neuen Antwort zusammensetzt, ist im Nachhinein nur schwer zu klären, woher die Textschnipsel stammen.
Entsprechend besteht immer die Gefahr, dass der Bot urheberrechtlich geschütztes Material für sein Antwortkonstrukt verwendet - zum Beispiel Artikel aus Zeitungen oder Magazinen. In solchen Fällen würde sich auch ein Texter, der den Output von ChatGPT unverändert weiterverwendet, unbeabsichtigt eines Plagiats schuldig machen und müsste schlimmstenfalls sogar mit rechtlichen Konsequenzen rechnen.
Keine Quellenangaben, kein Fakten-Check - wenn KI für Probleme sorgt
Wenngleich derzeit noch keine Präzedenzfälle existieren, in denen Texter wegen Urheberrechtsverstößen durch ChatGPT belangt wurden, gibt es dennoch bereits jetzt Konsequenzen, wenn unachtsam mit KI gearbeitet wird. So verwenden zahlreiche Universitäten schon heute Tools, um KI-generierte Inhalte in wissenschaftlichen Arbeiten aufzuspüren und zu ahnden, während Google KI-Texte mit einem schlechteren SEO-Ranking abstraft.
Gleichzeitig wird bei der Recherche mit ChatGPT zum Problem, dass die KI die verwendeten Informationen nicht auf ihren Wahrheitsgehalt überprüft, sondern ungefiltert alles verwendet, das zum Input passt. Somit fällt die Gewährleistung der Wahrhaftigkeit weg, die ansonsten durch renommierte Quellen gegeben ist. Dies führt teils zu dubiosen Antwortkonstrukten, die auch Inhalte aus Quellen verwenden, welche bekannt dafür sind, Falschinformationen zu verbreiten.
Texter in der Sorgfaltspflicht
Für Texter ist also gleich in zweierlei Hinsicht Vorsicht geboten, wenn sie ChatGPT bei der Arbeit verwenden. Einerseits sollten natürlich KI-generierte Texte nicht eins zu eins übernommen werden - stattdessen muss die Antwort der KI immer umgeschrieben werden, um rechtlich auf der sicheren Seite zu sein. Es ist deshalb anzuraten, ChatGPT nicht als reinen Textgenerator, sondern primär zur Grundlagenrecherche zu verwenden.
Dabei müssen zudem sämtliche Informationen, die von ChatGPT stammen, umso genauer auf ihre Richtigkeit überprüft werden. Es empfiehlt sich also, selbst anhand verlässlicher Quellen zu verifizieren, ob Zahlen und Fakten im Output der KI der Wirklichkeit entsprechen, bevor damit gearbeitet wird. Nur so lässt sich vermeiden, dass Fehlinformationen weitergegeben werden.
Nichts ungefiltert von der KI übernehmen
Zuletzt ist bei jedem Text auch entscheidend, für wen er geschrieben ist. Zwar kann ChatGPT grundlegende Anpassungen vornehmen, um auf eine bestimmte Zielgruppe einzugehen, jedoch kann die KI nicht den persönlichen Stil eines professionellen Autors kopieren. Dies ist es jedoch schlussendlich, wofür die Kunden menschliche Texter bezahlen - Texte, die nicht nur sachlich korrekt, sondern wirklich einzigartig und spezifisch auf die Zielgruppe zugeschnitten sind.
Am besten fährt mit ChatGPT also, wer lernt, die KI richtig zu bedienen und in seine Tätigkeit einzubinden. So kann und sollte niemals die KI den Löwenanteil der Arbeit übernehmen - dessen müssen sich Texter immer bewusst sein. Es gilt daher, maschinell erstellte Inhalte selbst zu prüfen und um eine persönliche Note zu ergänzen, um die bestmöglichen Ergebnisse zu erzielen.
Über Philipp Follmer:
Philipp Follmer ist einer der erfolgreichsten Copywriter Europas und Gründer der Freedom Writer Academy. Diese Online-Ausbildung zeigt Menschen, wie sie sich als Quereinsteiger durch das Schreiben von Texten in wenigen Monaten ein erfolgreiches Business aufbauen und ihren Traum vom freien und selbstbestimmten Leben verwirklichen können. Er selbst lebt von seiner Tätigkeit als Copywriter bereits seit über sechs Jahren selbstbestimmt und ortsunabhängig. Die Teilnehmer lernen in seiner Academy nicht nur die Fähigkeiten des Copywritings, sondern auch, wie sie planbar Kunden gewinnen und ihr Business langfristig führen können. Mehr Informationen dazu unter: www.freedom-writer.de
Pressekontakt:
Philipp S. Follmer Copywriting
Philipp Follmer
E-Mail: info@freedom-writer.de
Webseite: https://philippfollmer.de/
Pressekontakt:
Ruben Schäfer
E-Mail: redaktion@dcfverlag.de
Original-Content von: Philipp S. Follmer Copywriting, übermittelt durch news aktuell
Originalmeldung: https://www.presseportal.de/pm/169800/5620874
© 2023 news aktuell