Nutzung der KI zum Schreiben von Forenbeiträgen

Hallo,

ich glaube, wir haben noch keinen allgemeinen Thread über die Frage, ob wie man die KI nutzen kann/soll/darf, um hier Beiträge zu verfassen/verbessern. Die Diskussion kommt manchmal am Rande auf, z.B.

oder Proposal to add 🤖 as a reaction to AI content oder der Beschluss des internationalen Foren-Moderations-Teams, 100% AI-generierten Content sofort zu löschen.

Dass wir hier keinen KI-Spam wollen, darüber sind wir uns sicher einig, aber es gibt Leute, die sagen, dass die KI als “Formulierungshilfe” ja durchaus etwas verbessern kann; gegen eine automatische Rechtschreib-Korrektur wird ja auch nicht ins Feld gezogen, selbst wenn sie ab und an mal eine Stilblüte hervorbringt.

Was mich persönlich an KI-unterstützten Posts stört, ist, dass sie erstens oft sehr lang sind (gerade so, dass man gern eine KI den Inhalt zusammenfassen lassen würde…), und zweitens, dass sie zu einem stilistischen Einheitsbrei führen. Vielleicht ist das nur eine Momentaufnahme, weil die KI noch nicht so gut ist, aber diese Postings lesen sich alle wie amerikanische Business-Kommunikation: “Lieber X, [dein Einwand ist völlig berechtigt|vielen Dank für Deine Frage|vielen Dank für Deine ausführliche Kritik], im Folgenden gehe ich noch einmal detailliert auf das Problem ein, blablub, endlose Aufzählungspunkte mit schönen Zwischenüberschriften und Fettdruck der Schlüsselwörter…”

Dadurch geht mir das Persönliche verloren. Ja, die Sache steht natürlich im Vordergrund, aber ich will mich wenigstens der Illusion hingeben können, dass ich mit einzelnen Menschen zu tun habe, die einen eigenen Charakter haben. Einige sind exzentrisch, einige penibel, einige eher still, eine reden zu viel, einige nerven - so ist das eben im Leben. Jeder hat seinen Stil. Wenn ich am Avatar sehe, hier ist ein Posting von @Peer_van_Daalen, dann weiss ich gleich, was mich erwartet - vielleicht ein bisschen rüpelig, aber ganz bestimmt kein gleichgeschaltetes KI-Gemurmel.

Von denen, die die KI nutzen, um sich bei der Formulierung helfen zu lassen, wird gern behauptet, dass ein KI-Verbot ja sowas wie “Ableismus” wäre - dass man damit die Forenteilnahme auf jene beschränkt, die eben einigermaßen regelkonform schreiben und ihre Gedanken in Worte fassen können. Sollte jemand, der das nicht kann, sich belächeln lassen für seine vielen Fehler, oder aus Scham dem Forum fernbleiben? Das ist ein valider Punkt, wir wollen ja nach Möglichkeit keinen ausschließen. Wenn zum Beispiel jemand aufgrund einer Behinderung nicht sprechen kann und sich dann in der Öffentlichkeit eines Sprach-Synthesizers bedient, will man ja auch nicht sagen “diese Leute mit Sprach-Synthesizer hören sich alle gleich an, das find ich doof”. – Zugleich käme niemand, der sprechen kann, auf die Idee, stattdessen lieber einen Sprach-Synthesizer zu benutzen.

Ich würde gern bei allen Beteiligten das Bewusstsein dafür schärfen, dass ein KI-überarbeiteter Text zwar vielleicht oberflächlich betrachtet irgendwie “professioneller” aussieht, aber im Community-Sinn auch viel an Wert verloren hat. Man sollte hier bei uns im Forum, so finde ich, die KI nur dann zu Hilfe nehmen, wenn man ohne sie nicht in der Lage ist, am Forum teilzunehmen, und nicht, um den eigenen Beitrag kosmetisch aufzuhübschen. Denn hier kommt es, anders als vielleicht bei geschäftlicher Kommunikation, auch auf das Persönliche an.

24 Likes

Ich fände einen Button nicht schlecht, mit dem der Erfasser KI-unterstütze Beiträge markieren könnte.

Und Leser die KI nicht mögen könnten diese Beiträge dann ausfiltern.

1 Like

Hallo Frederik, danke fürs Anstoßen des Themas – ein allgemeiner Thread dazu wäre wirklich hilfreich.

Ich möchte eine persönliche Perspektive ergänzen: Ich bin Legastheniker und hatte zusätzlich eine Lungenembolie, nach der ich teils wieder lesen und schreiben lernen musste. Seitdem fällt es mir auch schwer, Gedanken kurz zu strukturieren, weil mein Kurzzeitgedächtnis nicht mehr zuverlässig funktioniert. KI ist für mich daher keine „Kosmetik“, sondern eine Möglichkeit, überhaupt sinnvoll teilnehmen zu können – ähnlich wie Unterstützung durch Familie.

Deinen Punkt mit „Einheitsbrei“ und zu langen KI-Texten verstehe ich aber auch. Vielleicht als pragmatische Regel: Fragen möglichst kurz und präzise (KI gern zum Kürzen/Strukturieren nutzen), Projekt- und Problemkontext darf ausführlicher sein, wenn er nötig ist, um das Anliegen zu verstehen. Und als Leitplanke: kein KI-Spam und keine Standardfloskeln, sondern Texte, die menschlich bleiben.

Ausführlich:
Hallo Frederik, danke, dass du das Thema so klar ansprichst – ich finde es gut, dass wir dafür einen allgemeinen Thread haben, statt es immer nur am Rand mitzunehmen.

Ich möchte dabei eine persönliche Perspektive ergänzen, weil sie direkt relevant für die Frage ist, wann KI „Formulierungshilfe“ ist und wann sie eher zur Vereinheitlichung beiträgt: Ich bin Legastheniker. Rechtschreibung, Grammatik und auch das Lesen fallen mir schwerer als vielen anderen, und ich bin in Foren in der Vergangenheit dafür leider oft angefeindet worden, obwohl es mir um den Inhalt ging. Zusätzlich kommt dazu, dass ich nach einer Lungenembolie mehrfach wieder lesen und schreiben lernen musste. Seitdem fällt es mir außerdem schwer, meine Gedanken zu strukturieren und zusammenzufassen, weil mein Kurzzeitgedächtnis dadurch nicht mehr zuverlässig funktioniert.

Für mich ist KI in diesem Kontext kein „kosmetisches Aufhübschen“, sondern vor allem eine Möglichkeit, überhaupt teilhaben zu können – ähnlich wie Hilfe durch Familie oder andere Assistenz, die ich auch schon genutzt habe.

Deinen Punkt mit dem „Einheitsbrei“ und der oft übermäßigen Länge kann ich gleichzeitig gut nachvollziehen. Vielleicht könnte man das pragmatisch lösen, ohne Leute auszuschließen:

  • Fragen und kurze Beiträge (z.B. „Wie mache ich X?“) sollten – egal ob mit oder ohne KI – so kurz und präzise wie möglich sein. Wenn KI genutzt wird, dann idealerweise genau dafür: kürzen, strukturieren, verständlicher machen.

  • Projektbeschreibungen / Problemkontexte dürfen dagegen auch ausführlicher sein, wenn das nötig ist, damit der Gegenüber den Sinn und Zweck überhaupt versteht. Sonst wird es schnell unklar, worauf man eigentlich antworten soll.

  • Und als gemeinsame Leitplanke: kein KI-Spam, keine seitenlangen Standardfloskeln, sondern ein Text, der nach der Person klingt und inhaltlich auf den Punkt kommt.

So hätten wir eine Norm, die beides schützt: den persönlichen Charakter der Community – und gleichzeitig die Möglichkeit, dass Menschen mit realen Hürden (wie Legasthenie oder Folgen einer Erkrankung) ohne Angst vor Anfeindungen teilnehmen können.

Gruß:
Viele Grüße
Lutz

2 Likes

Ich möchte anregen, bei der Verwendung von KI sparsam zu sein. Es ist längst bekannt, dass KI enorm viel Ressourcen (Rechenleistung, Strohm) im Internet benötigt. Da halte ich es für besser, jeder schreibt so wie ihm der Schnabel gewachsen ist, statt kostbare Ressourcen dafür zu verbrauchen, dass ein Text gefälliger formuliert wird. Und wir sollten aufpassen, dass nicht eine Art Gruppendruck entsteht, dass Texte zukünftig geschliffen formuliert sein müssen. Auch Menschen mit Rechtschreibschwäche sollten sich nicht genieren müssen, einen Forenbeitrag mit Rechtschreibfehlern zu posten.

12 Likes

Meine Mindestforderung:

Hört auf es “KI” zu nennen. Praktisch alles, was unter diesem Stichwort aktuell genutzt wird ist ein LLM, also ein sehr großer Haufen Daten auf den Statistik geworfen wird.

Meine Maximalforderung: Burn 'em to the ground.

12 Likes

Als ich dass heute Morgen gelesen habe habe ich mir wirklich ernsthaft überlegt, ob ich darauf überhaupt noch antworten soll. Auch jetzt nach wiederholtem Lesen bin ich mir nicht sicher ob ich hier mit einem echten Menschen oder mit einem Chatbot (der sich ein altes Nutzerprofil ausgekramt und übernommen hat) diskutiere.
@Wankmann wäre ein Feedback entgangen. Auch das ist eine “Ausgrenzung” die LLM-generierte Beiträge verursachen können.

Als global tätiger Moderator habe ich da vielleicht auch etwas mehr Einblick, was derzeit vorallem in den englischsprachigen Foren an LLM-generierten Beiträgen auftaucht, oft und zunehmend besser versteckt mit SPAM usw. Vieles von dem ist völlig inhaltsleer und fügt der Diskussion keinerlei neue Information zu. Einiges wird bereits von der Forensoftware erkannt und von den Moderatoren entfernt, bevor es die Foren erreicht. Andere werden von usern geflaggt, ausgeblendet und letztlich wegmoderiert. Ich hatte hier bereits darüber geschrieben.

Es gibt sicher gute Gründe, LLM zu nutzen, dann macht es bitte kenntlich. Es wird hier niemand ausgegrenzt, weil er fehlerhafte Texte schreibt. Und auch nicht, wenn man LLM aus bestimmten Gründen nutzt, die nachvollziehbar sind. Aber dann macht es bitte von dem vielen LLM-Müll, den man an manchen Tagen so liest, unterscheidbar.

13 Likes

Da ich mit der Thematik beruflich zu tun habe, muss ich dazu etwas sagen:

Die Debatte um den Energieverbrauch von KI-Systemen wird oft pauschal geführt, doch die tatsächliche Belastung hängt stark von Modellgröße, Hardware und Einsatzzweck ab. Werden KI-Tools wie ChatGPT, Gemini oder Claude genutzt, die auf massiv skalierbare Cloud-Infrastrukturen angewiesen sind, sind die ökologischen und energetischen Kosten zweifellos hoch[1]. Doch für den Großteil der Anwendungsfälle – etwa Textzusammenfassungen, Formulierungshilfen oder Übersetzungen – kann der Ressourcenbedarf deutlich geringer sein, als viele vermuten, denn die Leistungsfähigkeit eines KI-Modells korreliert direkt mit seinem Speicher- und Rechenbedarf.

Während große Sprachmodelle wie GPT, Gemini oder Claude auf spezialisierte Server mit viel Speicher und massiver GPU/NPU-Beschleunigung angewiesen sind, reichen für viele Aufgaben deutlich kleinere, effizientere Varianten aus. Diese lassen sich selbst auf Standard-CPUs oder mittelmäßigen Grafikkarten betreiben[2] – etwa auf einem aktuellen Laptop, der mit einem sparsamen Modell[3] ca. 10 Wörter pro Sekunde generiert. Für typische Büroanwendungen (Korrekturlesen, Textoptimierung, Übersetzungen) ist das mehr als ausreichend.
Sogar Bilder kann man mittlerweile komplett zuhause auf einer halbwegs aktuellen Grafikkarte generieren lassen, ohne dass man dazu Spezialhardware benötigt. Die meisten aktuellen Spieletitel sind da ressourcenhungriger.

Mal als Beispiel: Mein dedizierter AI-Server zuhause ist ein 45-Watt-System und schluckt damit selbst unter Volllast weniger als die meisten Spiele-PCs, die nur „herumidlen“. Die Annahme, dass KI generell „enorm viel Ressourcen“ verbraucht, verkennt, dass der Bedarf stark vom Kontext abhängt. Wenn man also nicht gerade mit einer eierlegenden Wollmilchsau wie ChatGPT oder Claude sprechen möchte, ist er nicht sehr hoch.

Im Prinzip können wir froh sein, dass die meisten hier sowieso nur ChatGPT kennen und keine Ahnung haben, wie man ein Modell so konfiguriert, dass es nicht wie Einheitsbrei klingt (oder um es mit @woodpeck zu sagen: wie amerikanische Business-Kommunikation), denn sonst würden die Meisten von uns KI-generierte Texte gar nicht mehr als solche erkennen können.

Natürlich ist es präziser, wenn man von LLMs spricht, aber „KI“ ist einfach nur der Oberbegriff und damit nicht per se falsch. Ich kann gut verstehen, wenn weniger technik-affine Menschen einen allgemein verbreiteten Begriff wie „KI“ benutzen.


  1. Deswegen ist deren professionelle Nutzung ja auch so teuer ↩︎

  2. 8GB VRAM oder mehr ↩︎

  3. in etwa bis zu 8b Parameter ↩︎

3 Likes

Es ist mal wieder die Frage, wie die KI verwendet wird.

Ich persönlich weiß, dass ich dazu neige, Rechtschreibfehler zu übersehen. Ich weiß, ich neige dazu, komische Wortstellungen zu übersehen, Wörter wegzulassen und das auch nicht zu sehen.

Also gebe ich meine Texte dem LLM und beschimpfe es jedes Mal, wenn es meine Formulierung entgegen meiner Vorgaben glattbügelt. Damit werden aber meine Texte für andere leichter und besser lesbar.

Wenn jetzt zum Beispiel jemand wie gabischatz, und ich schreibe dies jetzt nur, wegen seiner Legasthenie, ein LLM verwendet, dann ist das eine Art der Höflichkeit, anderen gegenüber. Es gibt LRSler in Foren, da verstehe ich teilweise nicht, was die mitteilen wollen. Wenn jemand meint, er wird besser verständlich oder leichter verständlich, wegen all seiner Macken im Schreibstil, die vielleicht noch nicht die Diagnose einer Teilleistungsstörung erfüllen, dann ist das doch für alle gut.

Und es gibt noch ein lustiges Phänomen. Ich diktiere teilweise meine Texte und lasse sie dann von der KI transkribieren. Ich will jetzt nicht sagen, dass das grundsätzlich besser für mein Denken ist, aber je nach Kontext ist es besser für den Text.

1 Like

Wie soll eine konstruktive Diskussion zustande kommen, wenn der Gegenüber kein Interesse an seiner eigenen Antwort hat?

Rechtschreib- und Grammatikprüfungssoftware war mal durchoptimiert, bis sämtliche LLMs darauf losgelassen wurden.

1 Like

Es gibt viele Menschen, die einfach Probleme haben, zu formulieren, zu erklären oder einfach nur längere, zusammenhängende Texte zu schreiben, ohne dass es wie „Braindump“ aussieht.
Wenn solche Texte also durch ein LLM lesbarer und verständlicher werden, wenn diese Texte vom Verursacher dann auch gegengelesen und für besser befunden werden, wieso glaubst Du dann, dass da kein Interesse an der eigenen Antwort vorhanden ist? Eher das Gegenteil ist doch der Fall: Der Person ist das Thema so wichtig, dass sie unbedingt möchte, dass ihr Text verstanden und ihre Antwort ernst genommen wird.

Assume good faith!

5 Likes

Wie soll eine konstruktive Diskussion zustande kommen, wenn man nur so eine eindimesionale Vorstellung von der Verwenungform einer KI hat.

1 Like

Danke für den fairen und ehrlichen Versuch, meine Reputation zu wahren :smiley:. Das weiß ich zu schätzen und werde bemüht sein, dieses Niveau weiterhin zu pflegen …

Am 28. Dezember 2025 schrieb ich …

Diesen Text hatte ich kurz darauf mal spaßeshalber durch die KI für Arme

Triggerwarnung!

(also durch die von Google) Pardon @Map_HeRo

gedrückt.

Heraus kam,

“Es scheint, als ob Sie eine Meinung über die belgische OpenStreetMap (OSM) Gemeinschaft teilen möchten und dabei einen spezifischen, eher informellen Sprachstil verwenden. Ihre Nachricht beschreibt eine positive Wahrnehmung der belgischen Mapper-Gemeinschaft als “frei”, “gut aktiv” und weniger von “streng ideologisch verhunzten OSM-Korinthen” beeinflusst, während sie dennoch die grundlegenden OSM-Regeln einhält.
Ich kann diese Meinung zur Kenntnis nehmen. OpenStreetMap lebt von den unterschiedlichen Perspektiven und Arbeitsweisen seiner globalen und lokalen Gemeinschaften. Die Vielfalt in den Herangehensweisen ist oft eine Stärke des Projekts.”

Also ich hab schon schlimmeren Strunz von KI gelesen, woraus nicht folgt, daß ich mich mit KI oder ähnlichem nun anfreunden würde.

Ich bleibe bei meiner NAI (Natürliche Angeborene Intelligenz) mit leicht rüpeligen Attitüden.

LLM mußte ich erst mal googlen :thinking:

Ansonsten Danke einstweilen! Insbesondere an @silversurfer83 für seinen Beitrag weiter oben.

5 Likes

Heise zu KI-Zusammenfassungen: Google: Medienwächter warnen vor KI-Zusammenfassungen | heise online

Sven

Danke zunächst mal Dank für das Starten dieses Gesprächsfadens.

Ich habe das Gefühl, dass man sich schon Gedanken darüber machen sollte, wie die Nutzung von KI/AI/LLMs unsere Gesprächskultur beeinflusst. Wie fast alle von der Menschheit geschaffenen Hilfsmittel hat die KI zwei Seiten:

  • Man kann sie dazu verwenden, Beiträge besser lesbar oder in bestimmten Fällen (s.o.) überhaupt möglich zu machen.
  • Sie kann aber auch inhaltsarmen, Bedeutung vorspiegelnden Textwust erzeugen. Sie kann sogar Inhalte erzeugen, die vom Prompt-Ersteller so gar nicht beabsichtigt waren, vielleicht unbeabsichtigt, im schlimmsten Fall sogar beabsichtigt.
    Es ist bekannt, dass durch die Auswahl der Trainingsdaten und vor allem auch durch das anschließende Feintuning stark verzerrende Ergebnisse der Abfragen erzeugt werden können.

Ich bin zwar kein Deutschlehrer, bemühe mich aber trotzdem, Texte mit korrekter Rechtschreibung und Grammatik zu schreiben, weil ich der Meinung bin, dass sie so leichter lesbar sind.
Ich habe aber auch kein Problem damit, über solche Fehler hinweg zu lesen, wenn sie nicht zu entstellend sind :smiley: .

Kurz gesagt: AI dort, wo es einen deutlichen Vorteil in der Kommunikation bietet, sonst NAEI (NA und erworbene I :innocent: ).

Nachtrag: Nach Absenden des Beitrags habe ich festgestellt, dass die “Minimal-KI” der Forumssoftware die Aufzählung mit Punkten versehen und mit zwei Leerzeilen verlängert hat. Diese Aufblähung meines Textes wollte ich nicht! :wink:

1 Like

Ich habe weiter über das Thema nachgedacht. Die interessante Frage ist, wie viele Beiträge sind eigentlich mit KI erstellt worden, denen man das nicht anmerkt, weil die LLMs anders verwendet worden sind, als sich die Kritiker das vorstellen.

Das dürfte ähnlich sein wie bei der Gesprächsführung. Bei manchen Menschen denkt man sich: “Oh Gott, der hat ein Gesprächsführungsseminar besucht, furchtbar, kann nicht selber denken, kann der nicht selber formulieren. Was ist denn das für einer?” Aber es gibt auch genügend Menschen, die das Gelernte in Gesprächsführungsseminaren so anwenden, dass man es nicht anmerkt. Persönlich glaube ich, es liegt an der Motivation, ob das Werkzeug unangenehm auffällt oder nicht bemerkbar ist. So gesehen sind die offensichtlich KI-Texte vielleicht eine Art Warnlampe.

1 Like

Wenn der Prompt schon alle relevanten Dinge leicht lesbar enthält, braucht man die KI nicht, dann ist es ja schon der Beitragstext.
Es geht um die Fälle, wo der Ausgangstext erst noch von der KI in einen kommunizierfähigen Zustand gebracht werden soll.

1 Like

Die Google-AI kann das nicht nur, sondern sie tut es auch und schon hat sie wieder etwas über die Korinthen-Kultur innerhalb der OSM-Community gelernt. In meiner Grundschulzeit hat man das Petzen genannt :speak_no_evil_monkey:

Ja, natürlich. Wenn ich nicht merke, dass der andere seinen Text mit KI geschrieben hat, dann ist es ja gut - denn das, was ich an den KI-Texten bemängele, ist ja eben eine für mich merkliche Qualitätsveränderung.

Umgekehrt, wenn jemand jetzt absolut ohne KI ständig ellenlange Posts mit höflicher “fantastischer Einwand”-Einleitung, Zwischenüberschriften und Aufzählungspunkten schreibt und dabei akribisch die wichtigen Punkte in fetter Schrift hervorhebt, dann nervt mich das genauso.

Es ist also nicht grundsätzlich die KI-Verwendung, die mich stört, sondern die Einheitsbrei-Soße, die da rauskommt.

6 Likes

Ich möchte mal vorsichtshalber auf etwas hinweisen. Die Posts, die Du beklagst, sind nicht hundertprozentig KI erstellt, weil der Anfangspunkt dieser Posts ist eine menschliche Eingabe.

Aber ich möchte auch noch einen anderen Punkt in Diskussion einbringen. Mich verwundert etwas die Genervtheit über KI-Posts. In meiner Internetwelt ist mir schon so etwas begegnet. Ich glaube, ich brauche nicht alle meine zehn Finger, um diese abzuzählen zu können.

Es verlief dann meist so, dass diese sich durch ihre KI-Verwendung derart blamiert haben, dass sie teilweise aus diesen Foren verschwunden sind oder in dem Forum nicht noch einmal offensichtlich zur KI griffen.

Vielleicht wird Durch diese KI-Genervtheit etwas anderes klar, dass man sich in einem Umfeld herumtreibt, das vielleicht gar nicht so toll ist, wie man glaubt. Warum gibt es da so viele Personen, die mit KI nervige Ergebnisse produzieren? Damit geht vielleicht einher, dass man für sich zugeben muss, auf etwas hereingefallen zu sein, letztendlich der Dumme zu sein.

Unter meinem Gesichtspunkt, Du hast ein Umfeld, dem das anscheinend massiv egal ist. Ist das jetzt ein KI-Problem oder wird durch die KI das erst deutlich?

Oder es gibt gar nicht so viele KI-Posts, aber es gibt eine Überempfindlichkeit der Personen, die über KI-Posts klagen.

Also wenn man auf etwas deutet, dann weisen drei Finger auf einen zurück, die vielleciht doch recht erhellend sein können.

Bei KI-Antworten muss man zwischen dem Inhalt und dem Stil (Tonalität) unterscheiden. Den Stil kann/sollte der Benutzer im (System-) Prompt vorgeben. Der gewünschte Stil kann sehr unterschiedlich sein. Die Stilvorgabe kann abstrakt (zum Beispiel: sachlich, freundlich, kompakt, weitschweifig, klar und deutlich, …) oder auch sehr speziell (zum Beispiel: antworte wie woodpeck, GUFZ, OSM-Experte, …) erfolgen. Das Ergebnis sieht dann ganz anders aus, als der hier monierte ‘weitschweifige, geschätzige und überfreundliche’ Standard-Stil vieler Chatbots.

1 Like