Seit rund 2,5 Jahren sind nun generative-KI Algorithmen mit entsprechenden Sprachmodellen am Markt verfügbar. Sie haben vieles verändert, neue Möglichkeiten eröffnet aber auch viele Jobs vernichtet. Es ist kein Geheimnis, dass es auf dem Markt für freie Autoren und Übersetzer ein wahres Erdbeben gegeben hat. Gut aufgestellte Profis erwischte es nur glimpflich, doch viele kleinere Texter*innen wurden durch den KI-Sturm vom Markt gefegt.
Plattformen wie content.de und deren direkte Mitbewerber haben Umsatzeinbußen im höheren zweistelligen Prozentbereich hinnehmen müssen. Durch konsequente Restrukturierungsmaßnahmen konnten wir uns neu aufstellen und den Weiterbetrieb unserer Plattform sicherstellen.
Die Gründe für die massiven Auftragsrückgänge in der Branche sind tatsächlich vielschichtiger. Dazu gab es bereits vor längerer Zeit einen ausführlichen Blogbeitrag.
Was bleibt? Kleiner aber feiner.
Wie sieht der Markt heute aus? Der offene Marktplatz, eigentlich das Herz einer Crowdworking Plattform, ist praktisch zum Erliegen gekommen. Insbesondere Aufträge für die einfacheren Texte im 2-4 Sterne Bereich sind nicht mehr vorhanden. Aufträge werden zumeist direkt an bekannte Autor*innen per DirectOrder vergeben. Daher sind noch zahlreiche Profi-Autor*innen weiterhin gut im Geschäft, während viele nebenberufliche Autor*innen die Branche verlassen haben.
Die Möglichkeit zur Neuregistrierung von Autor*innen haben (nicht nur) wir in den letzten zwei Jahren ausgesetzt. Das wird auch in absehbarer Zeit so bleiben. Loyalität zu unseren langjährigen Dienstleistern und Lieferanten sowie das daraus erwachsene gegenseitige Vertrauen hat für uns einen hohen Stellenwert.
Die noch aktiven Kunden legen Wert auf hochwertige Texte, individuellen Schreibstil, Fachkompetenz und eine problemlose Abwicklung der Aufträge. Mitdenken und zielorientiertes Arbeiten sind gefragt.
Abwarten ist angesagt
Ansonsten ist der Markt vom Abwarten geprägt: Abwarten, wie sich die KI weiterentwickelt, Abwarten, wie die Suchmaschinen auf KI reagieren, Abwarten, was die Neuwahlen ergeben, Abwarten, wie sich die Wirtschaft entwickelt, Abwarten, welche Auswirkungen der AI-Act der EU hat.
Viele Onlinemarketing-Agenturen haben Aufträge verloren oder Budgets gehörig zusammengestrichen bekommen. KI-Tools räumen durch Automatisierung auch in dieser Branche gehörig auf und setzen Personal frei. Somit gibt es noch weniger Auftraggeber und Budgets, die Texte ordern können.
Es wird immer schwierigen Content im Netz zu monetarisieren. Dank der DSGVO und ePrivacy Verordnung haben wir Daten-Oligopole außerhalb der EU geschaffen. Google, Apple, Amazon und Meta haben unsere Daten, bestimmen, wer beim Performancemarketing noch mitverdienen darf. Unsere Smartphones und -watches übertragen unsere Bewegungsdaten, Einkaufprofile, Konsumgewohnheiten und Gesundheitsdaten auf die Server der vorgenannten Unternehmen. Wir haben der Nutzung dann alle doch irgendwann genervt zugestimmt, weil es eben einfacher ist, die Geräte doch so schön zusammenarbeiten. Die zahlreichen Cookiebanner von EU-Unternehmen klicken wir mit Defaulteinstellung „No-Tracking“ meist weg. Kein Wunder, dass das Onlinemarketing in der EU am Boden liegt. Verdient wird mit unseren Daten nur außerhalb der EU, dann benötigt man hier auch weniger Marketing.
Was kann KI gut?
Generische KI-Algorithmen sind erstaunlich gut in der Lage, Standardtexte zu erstellen, und das praktisch ohne Rechtschreib- oder Grammatikfehler mit passender Interpunktion.
Die LLMs (Large-Language-Modelle) glänzen dabei mit einem breit aufgestellten Fachwissen. Per Machine Learning haben sie Milliarden Texte im Internet und anderen digitalen Sammlungen gelesen und daraus Zusammenhänge von Begriffen und Formulierungen extrahiert. Genauer gesagt, Wahrscheinlichkeiten ermittelt.
Sie sind in der Lage, Grundgerüste, oder auch Templates von bestimmten Textarten zu erkennen, notwendigen (Unter-)Themen zu einer Aufgabenstellung zusammen zu stellen (so wie wir es schon von WDF*IDF-Analysen kennen), per Sentimentanalyse Konnotationen und Denotation abzuleiten. Mit diesem Grundwissen ergibt sich ein erster roter Faden, entlang dessen nun Wörter und Formulierungen anhand ihrer (Abfolge-)Wahrscheinlichkeiten aufgereiht und zu korrekten Sätzen geformt werden.
Es wird ein Text erzeugt, der am Wahrscheinlichsten dem entspricht, was dabei herausgekommen wäre, wenn er genau wie die bereits bekannten Texte erstellt worden wäre. Gut für das Einhalten von Standards, schlecht für die Kreativität.
Einfachere Texte, wie wir sie aus dem 2-4 Sterne Bereich des offenen Marktplatzes kennen, lassen sich so recht einfach mit entsprechenden KI-Tools erstellen.
Bekanntes Wissen wird neu sortiert, ggf. neu zusammengesetzt und standardisiert reproduziert. Sehr gut lassen sich zu bekannten Themen Anfragen erledigen, die z. B. zu einem bestimmen Verfahren jeweils drei Vorteile und drei Nachteile aufzählen. Perfekt für die Folien von Einführungsvorträgen oder Texte, die einen Überblick über ein Themengebiet geben sollen. Auch als Recherchetool machen sich ChatGPT & Co also ganz gut. Absatzweise werden brauchbare Formulierungen geliefert, die ggf. in der Lage sind, den eigenen Wortschatz etwas aufzufrischen und von eingetretenen Pfaden zu befreien, wenn man ein Thema selber schon zu oft beackert hat. Wer hier klug fragt, kann als Autor*in an wertvolle Bausteine für eigene Texte kommen.
Was kann KI nicht?
Gehen diese KI-Texte wieder in großer Anzahl als Grundlage für neue Trainingsdaten in die Machine-Learning-Algorithmen ein, produzierenden diese am Ende nur noch Textevolutionen, also rundgelutschte Kieselsteine.
Revolutionen oder markante Felsbrocken kann man nicht erwarten. Dazu braucht es dann wieder einen Menschen, der dann und wann eben nicht, den wahrscheinlichsten Weg geht, sondern einfach mal anders abbiegt.
Anspruchsvollere Texte, wie wir sie von den Stufen 4+ an aufwärts kennen, erfordern einen individuellen Stil, gekonnte Schlenker, die die Reise durch das Thema aufregend, spannend und somit einprägsam gestalten. Wie bei einem guten Gag müssen Erwartungen gebrochen werden. Die KI erfüllt hingegen Erwartungen.
Mit der KI passiert uns das, was wir gerade in vielen Tageszeitungen (und anderen Zeitschriften erleben). Da sich die gedruckte Tageszeitung wirtschaftlich kaum noch rechnet, müssen Redaktionen eingedampft werden und verarbeiten primär bundesweites Agenturmaterial. Regionale und lokale Themen werden unter Zeitdruck nach Schema-F zusammengeschustert. Früher kannte man einzelne Autoren, las grundsätzlich ihre Texte, auch wenn man vorab wusste, anderer Meinung als der oder die Autorin zu sein. Aber man mochte den Schreibstil, man wusste, man wird gleich ein paar Minuten gut unterhalten bei der Lektüre am Frühstückstisch. Man vertraute dem Autor. Außerdem respektierte man noch anderen Meinungen, aber das ist ein anderes Problem.
Eine gegenläufige Tendenz findet sich übrigens gerade im Übersetzungsmarkt der Belletristik. Beim Groschenroman erledigt die Übersetzung heute auch schon die KI. Auch hier ist der Markt gehörig unter Druck, die Übersetzer können kaum noch von den Honoraren leben. Bei anspruchsvolleren Werken bemühen sich die Verlage gegenzusteuern, indem sie immer mehr die jeweiligen Übersetzer*innen mit in den Vordergrund stellen, um ein neues Qualitätsmerkmal zu generieren. Harry Rowohlt war hier einer der Vorreiter.
Ein großes Thema im Machine Learning sind Gefahren durch Datendiskriminierung oder durch eine Data-Bias. Das Internet ist in den letzten beiden Jahrzenten primär mit Marketingtexten geflutet worden. Insbesondere bei ansonsten dünner Datenbasis folgt die KI den Marketinglügen der Hersteller und Anbieter. So wird z. B. die Datenspeicherung in der Cloud von der KI allgemein als kostengünstig dargestellt, weil das eben überall so geschrieben wird in der Vermarktung. Dass die Realität schnell anders aussehen kann, merkt man erst, wenn die Datenmengen mit der Zeit ebenso wie die Abo-Kosten immer stärker wachsen. Das ist dann oft eine individuelle Erkenntnis, die sich dann aber selten in entsprechendem Content niederschlägt, der der KI das Gegenteil beibringt. Gerade in Nischenthemen wird man dann oft mit der einseitigen Marketingsicht der Anbieter konfrontiert. Hier muss durch den Menschen mit Fachwissen und kritischem Hinterfragen gegengesteuert werden.
Inhaltlich ist demnach Vorsicht geboten. Fachwissen und gewissenhafte Faktenchecks sind immer noch notwendig, denn auch das Halluzinieren hat man der KI noch nicht abgewöhnt. Ganz selbstbewusst erfindet die KI hin und wieder Fakten, die einfach nicht stimmen. Wenn das Wissen fehlt, wird einfach irgendwas geliefert. Eventuell merkt es ja niemand.
KI-Erkennung: A Fool with a Tool is still a Fool
Es gibt zahlreiche KI-Detektoren auf dem Markt, die unterschiedlichste Ansätze bei der Erkennung vermeintlicher KI-Texte, verfolgen. Ob es Originality.ai, Copyleaks, ZeroGPT, HIX Bypass, Turnitin oder einer der zahlreichen anderen Detektoren ist. Sie alle haben ein riesiges Problem mit False-Positive-Resultaten, d. h., sie erkennen fälschlicherweise einen von Menschen geschriebenen Text als KI-Text. Schon steht ein falscher Betrugsvorwurf im Raum.
Kaum ein KI-Detektor liefert verlässliche Ergebnisse. Viel Schlimmer: eine überzeugende Begründung für seine Einschätzung kann er grundsätzlich nicht liefern. Tatsächlich liefern diese KI-Detektoren gar keine Begründung. Sie zeigen nicht mal an, welche Merkmale sie nutzen, welche Grenzwerte sie nutzen. Alpha auf 5% setzen aus dem Bauch heraus, weil man es schon immer so gemacht hat.
Der Einsatz führt zu einer perversen Beweislastumkehr. Rumschlagen müssen sich nun Autor*innen und Plattformen mit diesen dubiosen Vorwürfen. „Meine Black Box zeigt ein rotes Licht, Du bist schuldig“. Das Rechtssystem in Deutschland funktioniert aus gutem Grund genau anders herum. Der Gegenbeweis ist kaum möglich, denn anderen Black-Boxen, die grüne Lichter anzeigen werden als „dann wohl defekt“ ignoriert. Nur der eigenen Black-Box wird vertraut, weil man für die schließlich ein teures Abo abgeschlossen hat. Muss ja richtig sein, was mein teurer Kasten sagt. A fool with a tool is still a fool.
Einzig der Nachweis eines über Stunden natürlichen Textwachstums mag den Kläger hin und wieder vom Gegenteil überzeigen. Dazu muss natürlichen die Schreibumgebung der Plattform genutzt worden sein, um dies belegen zu können. Originality.ai bietet einen Fact-Check an, der versucht, den Text inhaltlich zu prüfen. Aber auch wenn hier in fettem Grün steht „Inhaltlich korrekt!“, springt der Kunde ehr auf die Aussage „mit 87% Wahrscheinlichkeit per KI erzeugt“ an.
Übrigens: In unserer Datenbank schlummern Millionen von Texten, die deutlich vor der Verfügbarkeit von ChatGPT & Co. entstanden und somit definitiv menschlichen Ursprungs sind. Es ist kein Problem aktuelle KI-Detektoren mit diesen Texten zu füttern und KI-Treffer also False-Positiv Treffer zu bekommen. Vor Gericht könnte man diesen Black-Box Zeugen immer als unglaubwürdig erscheinen lassen.
Aus unserer Sicht sind KI-Detektoren demnach unbrauchbar: Sie liefern weder auch nur ansatzweise nachvollziehbare oder begründete Belege im Einzelfall, noch kann man ihnen grundsätzlich trauen, da eine recht hohe False-Positive Quote angenommen werden muss.
Standard ist von Standard nur schwer zu unterscheiden.
Durch SEO-Vorgaben ist das Internet in den letzten 10-15 Jahren mit uniformen Texten zugepflastert worden. All diese Texte mussten als Input für die aktuellen Sprachmodelle herhalten. Kein Wunder, dass ein KI-generierter Text so klingt und strukturiert ist, wie ein SEO-Text der letzten Jahre. Auch der Aufbau passt: Vorne Einleitung, hinten Fazit, dazwischen Hauptteil mit Zwischenüberschriften, Stichpunktartig werden Vor- und Nachteile von einem Produkt, Verfahren, Reiseziel oder sonst was aufgezeigt. Sieht aus wie ein KI-Text, folgt dem typischen SEO-Briefing.
Kein Wunder also, dass Texte von erfahrenen SEO-Textern häufig als KI-Texte erkannt werden, insbesondere, wenn sich die Texter immer noch an den bewährten SEO-Briefings orientieren sollen. Das Problem ist demnach hausgemacht.
Die Perversion des Ganzen liefern dann KI-Detektoren wie undetectable AI oder Grammarly, die nach einer KI-Erkennung einen Humanizer-Dienst anbieten, der – natürlich KI-gestützt – den Text so umschreiben soll, dass er von KI-Detektoren nicht mehr als KI-Text erkannt wird. Ein kleiner Widerspruch in sich, oder?
Das Beste aus zwei Welten: Pizza mit Gyros?
Das Beste aus zwei Welten ist nicht immer perfekt. Pizza mit Gyros bringt einen echten Neapolitaner vermutlich zum Weinen, bei meinem Freund Ioannis würde ich dafür wohl Hausverbot bekommen. Trotzdem steht das Gericht in vielen Imbissbuden, die von Mittelmeeranrainern betrieben werden, auf der Karte. Aber es gibt ja auch positive Beispiele: Ein Landrover-Defender mit BMW-Technik? Die Marke Ineos hat mit dem Grenadier den vermutlich besten „Defender“ auf den Markt gebracht, den es je gab. Puristen mit anderer Meinung mögen sich gerne in den Kommentaren austoben.
Auch beim Texten wird es Kombinationen aus Mensch und Maschine geben, die hervorragende Ergebnisse produzieren. KI-unterstützte Recherche und Rechtschreibkontrolle mit dem nötigen fundierten menschlichen Fachwissen, der individuellen Note und ggf. dem ungewöhnlichen, dafür einprägsamen Themenzugang können künftig die Texte erzeugen, die wirkliche Mehrwerte bieten und bleibende Eindrücke beim Konsumenten hinterlassen.
Auch wir nutzen KI im Alltag. Dieser Text entstand vollständig aus Menschenhand, da er etwas aus dem See der Kieselsteine herausragen soll. Das Titelbild hingegen ist ein Produkt von Leonardo.ai.
In trust we trust: Was ist die aktuelle Einstellung von content.de?
Einzelne Kunden fordern uns auf, schriftlich zu garantieren, dass unsere Autor*innen keine KI-Tools nutzen. Da wir nach wie vor keine Autor*innen im Keller halten und unter Aufsicht Texte tippen lassen, können und wollen wir dies auch nicht zusichern.
Am Ende kommt es darauf an, dass ein Text nicht nur korrekte, sondern auch alle notwendigen Fakten enthält, gut lesbar ist und einen bleibenden Eindruck hinterlässt. Ob der komplette Text, einzelne Abschnitte, Formulierungen, die Grobstruktur oder Stichpunktlisten von KI erstellt wurde, ist dabei letztendlich egal. Der Leser muss zufrieden sein. Auch Suchmaschinen werden sich künftig schwertun, KI-Texte von menschlichen Texten zu unterscheiden. Wichtiger für sie wird es sein, dass die Antwort dem Leser weitergeholfen hat. Vermutlich werden Faktoren wie Verweildauer und Empfehlungen (Backlinks) wieder etwas mehr Bedeutung in den Rankingalgorithmen bekommen.
Auf content.de arbeiten wir aktuell mit einem Team aus Autor*innen zusammen, die schon lange, d. h. weit vor der KI dabei sind. Seit die KI verfügbar ist, haben wir Neuregistrierungen unterbunden. Geblieben sind bei uns die Profis, die Fachwissen sowie ihren eigenen Stil mitbringen und ihr Handwerk verstehen. Wenn diese Autoren KI-Tools nutzen wollen. Sollen sie es tun. Am Ende zählt das Ergebnis. Wir vertrauen darauf, dass von ihnen Fakten geprüft, Texte geschliffen und Duftmarken gesetzt werden.
Wir vertrauen lieber auf unsere langjährigen Autor*innen als auf Black-Box-Tools, die ihre Resultate nicht einmal ansatzweise begründen können.
An unsere Kunden appellieren wir:
- Sparen Sie das Geld für KI-Detektoren, investieren Sie es in angemessene Honorare
- Machen Sie es wie wir, vertrauen Sie unseren Autor*innen.
- Schauen Sie auf das Endergebnis.
- Wenn Sie den Einsatz von KI-Tools nicht wünschen, halten Sie dies im Briefing fest. Vertrauen Sie darauf, dass sie dann auch Texte zu 100% aus Menschenhand bekommen.
- Lassen Sie die Verwendung von KI-Tools zu. Es wird zu besseren Texten führen. Letztlich ist es genau das, was Ihre Webseite nach vorne bringt.
„Like, comment and subscribe“, sagt der gemeine Youtuber für gewöhnlich. Ich belasse es bei einem „Gerne teilen und kommentieren, freue mich auf Anschlussdiskussionen“. Die Thematik bewegt gerade viele Menschen in unserer Branche und verdient auf jeden Fall eine vertiefende Diskussion. Möglicherweise habe ich Punkte übersehen, Sachverhalte anders eingeschätzt oder Logikketten schlich nicht verstanden. Also her mit euren Ergänzungen und Statements.
KI-Detektoren
Mir wurde vor einigen Tagen ein Text in Revision gegeben mit der Begründung, er wäre „ein reiner chatGPT-Text“. Ich kann versichern, dass ich ihn ohne KI geschrieben habe. Der Auftraggeber hatte ihn mit zeroGPT getestet.
Ich habe dann spaßeshalber alte Texte durch den Detektor geschickt. Einer davon wurde am 27.02.2020 unter meinem content.de-Nickname veröffentlicht, also einige Zeit, bevor die KI-Welle losgebrochen ist. Hier der Link dazu:
https://www.healthcare-digital.de/was-ist-bzw-was-tut-verband-der-krankenhausdirektoren-vkd-a-509a3abebfbd8ee22a1ba2e3f7e756cf/
zeroGPT gab an, dass 78,44 % des Textes KI-generiert sind. Zwei andere Tests mit QuillBot und Scribbr ergaben 0 %. Ich habe jetzt vor fünf Minuten (nochmal spaßeshalber) den Text erneut mit den drei Detektoren geprüft. QuillBot und Scribbr kamen wieder auf 0 %.
zeroGPT hat sich heute eine neue Zahl „zusammengefummelt“ – anders kann ich das nicht interpretieren: 88,59 %.
Ich kann wie Dr. Sigge in seinem Beitrag eigentlich nur an Auftraggeber appellieren, den Autorinnen und Autoren bei content.de zu vertrauen.
Schöner Beitrag!
Super, dass hier mal diese “KI-Erkennungs-Tools” angesprochen werden: Statt Geld in die zu investieren, kann man es tatsächlich besser in ein Würfel-Set stecken und einfach auswürfeln, ob der Text nun von der KI ist oder nicht – ist ähnlich verlässlich. Die Gründe dafür wurden ja hinreichend erläutert.
Eine andere Einschätzung habe ich zum Satz “Auch Suchmaschinen werden sich künftig schwertun, KI-Texte von menschlichen Texten zu unterscheiden” – da ich selbst seit 2020 als Free Contractor bei einem US-Unternehmen bei der KI-Entwicklung mitmache, weiß ich, dass Big Tech da ganz andere Erkennungsmechanismen nutzt. Das können sie aber natürlich nur deshalb, weil sie die Milliarden annotierten (Raw-)Datensätze haben, mit denen sie selbst ihre eigene KI vorher anlernten.
Ich persönliche denke (hoffe?) immer noch, dass Google irgendwann in den nächsten 1-3 Jahren Webseiten mit KI-Inhalten weitgehend aus den organischen Suchergebnissen ausschließen wird. Nicht aus Nächstenliebe zu unserem Berufsstand, wir sind denen natürlich völlig egal, aber einfach aus Eigeninteresse.
Wer heute etwas sucht, hat zwei Möglichkeiten:
1. ChatGPT und Co. ansteuern, in wenigen Sekunden die KI-Antwort bekommen. Kein Aufwand, kein Zeit-Invest, dafür ein moderates Risiko “Fake News”/Halluzinationen aufgetischt zu bekommen. Ansonsten aber oft eine ganz gute Lösung.
2. Google nutzen: Erstmal durch Anzeigen scrollen, sich dann durch Webseiten kämpfen, dort die Info suchen – im Vergleich zur KI ein relativ großer Aufwand und ebenso hohes Zeit-Invest. Wenn man dann trotz der eigenen Mühe nur KI-Kram spendiert bekommt, weil Google KI-Inhalte indiziert und ranked, dann schafft sich Google als Suchmaschine schlicht selbst ab. Warum soll man sich den Hickhack geben und selbst durch Webseiten manövrieren, wenn dort dieselben KI-Inhalte stehen, die das KI-Tool in 5 Sekunden ohne Aufwand und Webseiten-Rumgeklicke genauso liefern kann?
Das Google hier auf einem Irrweg ist, zeigen schon die verlorenen Market-Shares am Desktop: von 90+ % in 2019 zu aktuell 81 %. Im selben Zeitraum stieg die Market-Share von Bing von 4 auf 10 % und die von Yandex von 0,3 auf 2,5 %. Dabei ist auch das Geschäftsmodell von Yandex als Basis für dessen Klone (Kagi) interessant: Paid Search. Man zahlt für Suchanfragen, dafür bekommt man tatsächlich hochwertige, KI-freie Ergebnisse.
Mich würde es daher nicht wundern, wenn sich Suche im Internet künftig fragmentiert: KI-Tools und KI-Agents für einfache Queries und Tasks, Suchmaschinen ohne KI-Inhalte für alle, die mehr wollen – vielleicht auch einfach mehr “Personality”. Suchmaschinen _mit_ KI-Inhalten können per Definition nicht langfristig funktionieren, da deren Nutzung und Antwortfindung nie so schnell/komfortabel/mühelos wie KI-Tool-Suche sein kann.
Generell ist der KI-Fortschritt aber spannend: Seit einiger Zeit arbeite ich über das US-Unternehmen vermehrt an den Daten/Inputs für die neue KI der Ray Ban Glasses von Meta. Die gibt’s heute schon, aber ohne KI. Mit KI kann man damit später mal eine ganze Menge on the fly machen – Kalorien vom Essen, das vor einem steht, zählen lassen oder Holzplanken auslegen und sie aus den vorhandenen Materialien einen Regal-Entwurf mitsamt Anleitung erstellen lassen. Sogar mir, mit meinen abseits der Tastatur zwei linken Händen, gelingen so Sachen wie größere Rohrwechsel und -reparaturen – einfach indem die KI alles beobachtet und mir genau sagt, wo meine Hände nun hin müssen und was sie dort zu erledigen haben, alles in Echtzeit. Auch für Menschen mit Sehbehinderung wird so vielleicht mal eine alternative Form des Sehens ermöglicht, indem die KI in Echtzeit alles erläutert, was die künstlichen Augen gerade vor sich haben.
Danke, wurde alles eingebaut um authentisch zu sein, gut erkannt 😉
Sehr gut geschrieben! Ja, die KI hat eine ganze Branche dazu geführt, vom Preikestolen in die Tiefe zu schauen. Misstrauen prägt viele Auftraggeber-Autorenbeziehungen, wie ich kürzlich am eigenen Leib erfahren durfte. Mein zu 100% von mir geschriebener Text wurde im Detektor, den mir der AG auch mitteilte, als KI-Artikel eingestuft. Was aber nicht unlogisch ist, denn woher lernt die KI und woher bezieht sie ihre Informationen? Aus den Texten, die menschliche Autoren wie ich und viele andere in den letzten Jahren veröffentlicht haben. Ich wünsche mir inständig und ich hoffe darauf, dass mehr Auftraggeber merken, dass keine Maschine den Menschen und dessen Individualität völlig ersetzen kann. Wichtig ist, wie hier richtig beschrieben, dass ein Text faktisch und grammatikalisch korrekt ist.
Moin, Arne, gute Einsichten, auch das KI-Detektoren-bashing saß. Allerdings hättest du einige Komma- und Rechtschreibfehler (Mittelmeeranrainern mit a und n hinten, da Dativ Plural), etl. durch Einschalten von DeepL Write vermeiden können… Aber so warst du eben erkennbar authentisch, auch was wert!