Wie gesagt muss man denke ich bei den dicksten Fischen dort ansetzen, wo am schnellsten eine deutliche Verbesserung erzielbar wäre. Und das sind nunmal die Megaplattformen und ihre maßgeschneiderten Algorithmen zum Süchtigmachen und Aufhetzen der Nutzer*innen.
Vom Gefühl her, würde ich auch sagen, dass da was gehen könnte. Vom Thema Spielsucht weiß man, dass es psychologische Abhängigkeiten geben kann. Man weiß auch, dass Experimente durchgeführt werden, um herauszufinden, wie Nutzer beeinflusst werden können.
Das Problem ist, dass ich nicht weiß, woran man das festmachen könnte. Wenn Leute eine App mehr benutzen, dann kann das heißen, dass die App besser ist. Wenn mir Sachen empfohlen werden, die mich tatsächlich interessieren, dann finde ich das einen guten Service, ob bei Reddit oder Netflix. Dass es sowas hier oder bei Mastodon nicht gibt, ist ein häufiger Kritikpunkt.
Außerdem, ist Manipulation in vielen Formen absolut akzeptiert. Werbung zielt meist darauf ab, ein Image aufzubauen, und nicht den Kunden in Spe nüchtern zu informieren.
Gleichzeitig sind die einfachen Algorithmen hier bei Lemmy nicht ohne Probleme. Auch hier wird hochgespült, was mehr Aufmerksamkeit erregt. Und das ist eben eher das polarisierende und dumme. Zur Behauptung, die Welt sei eine Scheibe, haben mehr Leute eine Meinung als zur Relativitätstheorie. Ich fürchte, das Fehlen eines Recommender-Systems führt schlicht dazu, dass sich Diskussionen in wenigen, großen Allzweck-Communities konzentrieren, die dann potenziell qualifiziertere Diskussionen, oder solche mit Mindermeinungen, einfach die Aufmerksamkeit abgraben und nicht zulassen.
Der DSA verlangt eine gewisse Transparenz bei Recommendations. Bei Reddit sieht man Anzeigen, warum etwas in den Feed kommt.
Gerade bei dezentralen Netzwerken sehe ich hier aber auch großes Potenzial darin, dass wir als Nutzer*innen unseren Space auch als schützenswertes Gemeingut sehen, also eine Abwehr auch demokratisch und dezentral erfolgen kann, anstelle dass von oben eingesetzte Admins mit Powertrip null Verantwortungsgefühl ihrer Community ggü. haben.
Ja, aber das geht nur, solange eine Community einigermaßen übersichtlich ist.
Wird denke ich klarer, wenn man mal betrachtet, wie oft eben EU-Recht komplett ignoriert wird (antisemitische Verschwörungstheorien etc.). Selektive Rechtsanwendung ist ein ganz guter Indikator für Einflussnahme von oben.
Verschwörungstheorien, auch antisemitische, sind normalerweise keine Volksverhetzung oä. Es ist erlaubt und muss erlaubt sein, Organisationen oder Gruppen gegenüber Misstrauen auszudrücken und auch dunkle Machenschaften zu unterstellen. Das kann Big Tech sein, Putin, Musk, oder die Freimaurer, der israelische Staat oder sogar “Die Juden”. Da kann man keine sinnvolle Linie ziehen.
In den USA gehen auch herbe Gewaltfantasien. Die Luigi-Sachen sind dort kaum ein Problem. Man müsste schon direkt einen Lynchmob anstacheln, bevor die Sache strafbar wird. Gerade Deutschland setzt da deutlich früher an, aber solange keine Gewalt ins Spiel kommt …
Auch auf Lemmy gibt es problematische Desinformation. Zum Thema Copyright wird nur Unsinn erzählt, woran natürlich auch die Presse einige Schuld trägt. Dadurch reden sich die Leute dann ein, dass die Gesetze gegenüber den “Reichen” nicht durchgesetzt werden, was den Staat unterminiert. In Wirklichkeit ist es eher andersrum.
Vom Gefühl her, würde ich auch sagen, dass da was gehen könnte. Vom Thema Spielsucht weiß man, dass es psychologische Abhängigkeiten geben kann. Man weiß auch, dass Experimente durchgeführt werden, um herauszufinden, wie Nutzer beeinflusst werden können.
Das Problem ist, dass ich nicht weiß, woran man das festmachen könnte. Wenn Leute eine App mehr benutzen, dann kann das heißen, dass die App besser ist. Wenn mir Sachen empfohlen werden, die mich tatsächlich interessieren, dann finde ich das einen guten Service, ob bei Reddit oder Netflix. Dass es sowas hier oder bei Mastodon nicht gibt, ist ein häufiger Kritikpunkt.
Kann dir anekdotisch als Informatiker mit Kontakten in die Medienpsychologie sagen, dass es dort sehr viel gibt, was man machen könnte, wenn man wollte. Die Strategien sind gut erforscht und entsprechende Gegenmaßnahmen können mithilfe der gleichen wissenschaftlichen Disziplin gefunden werden, auf der die aktuellen süchtigmachenden Designentscheidungen begründet sind.
Außerdem, ist Manipulation in vielen Formen absolut akzeptiert. Werbung zielt meist darauf ab, ein Image aufzubauen, und nicht den Kunden in Spe nüchtern zu informieren.
Ja, dennoch sind wir an einem Punkt angekommen, wo unser gesellschaftlicher Zusammenhalt bedroht wird. Irgendwo werden wir eine Grenze ziehen müssen und ich denke hier wäre eine solche auch gut begründbar, selbst wenn wir die manipulative Wirkung von Werbung nicht grundsätzlich und allgemein aufarbeiten und dagegen vorgehen wollen.
Gleichzeitig sind die einfachen Algorithmen hier bei Lemmy nicht ohne Probleme. Auch hier wird hochgespült, was mehr Aufmerksamkeit erregt. Und das ist eben eher das polarisierende und dumme. Zur Behauptung, die Welt sei eine Scheibe, haben mehr Leute eine Meinung als zur Relativitätstheorie. Ich fürchte, das Fehlen eines Recommender-Systems führt schlicht dazu, dass sich Diskussionen in wenigen, großen Allzweck-Communities konzentrieren, die dann potenziell qualifiziertere Diskussionen, oder solche mit Mindermeinungen, einfach die Aufmerksamkeit abgraben und nicht zulassen.
Mit Verlaub, ich denke du unterschätzt ein wenig, wie sehr in der aktuell vorherrschenden Datenökonomie Menschen gezielt algorithmisch beeinflusst werden. Natürlich gibt es auch bei Lemmy Probleme, diese sind aber um Größenordnungen überschaubarer und lassen sich zumindest kritisch diskutieren und verändern, wenn die Community das möchte. Auch hier sind wir wieder an dem Punkt wo ich sage, dass man irgendwo eine Linie ziehen muss - und ich denke, wie gesagt, dass man bei den dicksten Fischen anfangen sollte. Wir sollten ja gesellschaftlich auch idealerweise das Ganze als einen iterativen Verbesserungsprozess sehen, anstelle hier ein one-size-fits-all Megagesetz zu verabschieden.
Verschwörungstheorien, auch antisemitische, sind normalerweise keine Volksverhetzung oä. Es ist erlaubt und muss erlaubt sein, Organisationen oder Gruppen gegenüber Misstrauen auszudrücken und auch dunkle Machenschaften zu unterstellen. Das kann Big Tech sein, Putin, Musk, oder die Freimaurer, der israelische Staat oder sogar “Die Juden”. Da kann man keine sinnvolle Linie ziehen.
Es geht mir ja nicht darum, hier den Diskussionsrahmen immer weiter einzuschränken, sondern eben darum, dass entsprechende Algorithmen noch viel stärker als alles, was es davor gab, Leute in immer radikalere Filterblasen pushen oder, wie man an X super sehen kann, politisch motiviert Verschwörungstheoretikern und Nazis absichtlich massiv mehr Reichweite gegeben wird.
Diese enorme Verzerrung der öffentlichen Meinungsbildung ist mit der Demokratie unvereinbar, denn freie Wahlen bringen nichts, wenn die Menschen komplett verschwurbelt und antiaufgeklärt sind. Ich sehe die Entwicklungen auf X, Meta etc. als Frontalangriff auf die Demokratie, denn jetzt wird langsam klar, dass die Reichen und Mächtigen dieser Welt über derarte Propagandasprachrohre ihre Macht ausbauen und dabei die Demokratie zu ihrem Vorteil aushöhlen und - wie in den USA - vielleicht sogar zerstören wollen. Die “Flood the zone with shit”-Strategie von Bannon oder der “A lie, repeated often enough, becomes the truth”-Klassiker sind nur der Anfang, denn mittlerweile sind ja sogar die Plattformen so strukturiert, dass sie solche Taktiken verstärken. Diese Gefahr sollten wir todernst nehmen und entsprechend agieren.
Die Strategien sind gut erforscht und entsprechende Gegenmaßnahmen können mithilfe der gleichen wissenschaftlichen Disziplin gefunden werden, auf der die aktuellen süchtigmachenden Designentscheidungen begründet sind.
Oh! Hast du da irgendwelche Lesetipps? Vielleicht nicht gleich ein Buch. Irgendwelche Links, oder Stichworte/Name von Forschern, die man nachschlagen könnte?
Mit Verlaub, ich denke du unterschätzt ein wenig, wie sehr in der aktuell vorherrschenden Datenökonomie Menschen gezielt algorithmisch beeinflusst werden.
Möglich. Ich kenne nichts Aktuelles über die Praktiken. Für Lesetipps wäre ich dankbar aufgeschlossen.
Ich habe einfach nicht den Eindruck, dass man die Hypothese brauch, um den beobachteten Zustand zu erklären.
Der DSA bringt gewisse Transparenzpflichten. Etwas, das ich ausnahmsweise einfach positiv finde. Die Datenbank mit der geschalteten Werbung könnte in dem Zusammenhang aufschlussreich sein.
Ich habe kürzlich in die Datenbank der Moderationsentscheidungen reingeschaut, wegen dieser Redditsache. Aber im anonymisierten Zustand kann man da natürlich nichts rauslesen. Man müsste untersuchen, ob man Auffälligkeiten über die Zeit erkennt, also ob die Moderation sich verändert um den Zeitpunkt als Musk Huffman kontaktiert. Rechtlich wäre da aber kaum was zu machen. Eine Plattform muss aktiv werden, wenn sie von illegalen Inhalten erfährt, egal wie.
Vom Gefühl her, würde ich auch sagen, dass da was gehen könnte. Vom Thema Spielsucht weiß man, dass es psychologische Abhängigkeiten geben kann. Man weiß auch, dass Experimente durchgeführt werden, um herauszufinden, wie Nutzer beeinflusst werden können.
Das Problem ist, dass ich nicht weiß, woran man das festmachen könnte. Wenn Leute eine App mehr benutzen, dann kann das heißen, dass die App besser ist. Wenn mir Sachen empfohlen werden, die mich tatsächlich interessieren, dann finde ich das einen guten Service, ob bei Reddit oder Netflix. Dass es sowas hier oder bei Mastodon nicht gibt, ist ein häufiger Kritikpunkt.
Außerdem, ist Manipulation in vielen Formen absolut akzeptiert. Werbung zielt meist darauf ab, ein Image aufzubauen, und nicht den Kunden in Spe nüchtern zu informieren.
Gleichzeitig sind die einfachen Algorithmen hier bei Lemmy nicht ohne Probleme. Auch hier wird hochgespült, was mehr Aufmerksamkeit erregt. Und das ist eben eher das polarisierende und dumme. Zur Behauptung, die Welt sei eine Scheibe, haben mehr Leute eine Meinung als zur Relativitätstheorie. Ich fürchte, das Fehlen eines Recommender-Systems führt schlicht dazu, dass sich Diskussionen in wenigen, großen Allzweck-Communities konzentrieren, die dann potenziell qualifiziertere Diskussionen, oder solche mit Mindermeinungen, einfach die Aufmerksamkeit abgraben und nicht zulassen.
Der DSA verlangt eine gewisse Transparenz bei Recommendations. Bei Reddit sieht man Anzeigen, warum etwas in den Feed kommt.
Ja, aber das geht nur, solange eine Community einigermaßen übersichtlich ist.
Verschwörungstheorien, auch antisemitische, sind normalerweise keine Volksverhetzung oä. Es ist erlaubt und muss erlaubt sein, Organisationen oder Gruppen gegenüber Misstrauen auszudrücken und auch dunkle Machenschaften zu unterstellen. Das kann Big Tech sein, Putin, Musk, oder die Freimaurer, der israelische Staat oder sogar “Die Juden”. Da kann man keine sinnvolle Linie ziehen.
In den USA gehen auch herbe Gewaltfantasien. Die Luigi-Sachen sind dort kaum ein Problem. Man müsste schon direkt einen Lynchmob anstacheln, bevor die Sache strafbar wird. Gerade Deutschland setzt da deutlich früher an, aber solange keine Gewalt ins Spiel kommt …
Auch auf Lemmy gibt es problematische Desinformation. Zum Thema Copyright wird nur Unsinn erzählt, woran natürlich auch die Presse einige Schuld trägt. Dadurch reden sich die Leute dann ein, dass die Gesetze gegenüber den “Reichen” nicht durchgesetzt werden, was den Staat unterminiert. In Wirklichkeit ist es eher andersrum.
Kann dir anekdotisch als Informatiker mit Kontakten in die Medienpsychologie sagen, dass es dort sehr viel gibt, was man machen könnte, wenn man wollte. Die Strategien sind gut erforscht und entsprechende Gegenmaßnahmen können mithilfe der gleichen wissenschaftlichen Disziplin gefunden werden, auf der die aktuellen süchtigmachenden Designentscheidungen begründet sind.
Ja, dennoch sind wir an einem Punkt angekommen, wo unser gesellschaftlicher Zusammenhalt bedroht wird. Irgendwo werden wir eine Grenze ziehen müssen und ich denke hier wäre eine solche auch gut begründbar, selbst wenn wir die manipulative Wirkung von Werbung nicht grundsätzlich und allgemein aufarbeiten und dagegen vorgehen wollen.
Mit Verlaub, ich denke du unterschätzt ein wenig, wie sehr in der aktuell vorherrschenden Datenökonomie Menschen gezielt algorithmisch beeinflusst werden. Natürlich gibt es auch bei Lemmy Probleme, diese sind aber um Größenordnungen überschaubarer und lassen sich zumindest kritisch diskutieren und verändern, wenn die Community das möchte. Auch hier sind wir wieder an dem Punkt wo ich sage, dass man irgendwo eine Linie ziehen muss - und ich denke, wie gesagt, dass man bei den dicksten Fischen anfangen sollte. Wir sollten ja gesellschaftlich auch idealerweise das Ganze als einen iterativen Verbesserungsprozess sehen, anstelle hier ein one-size-fits-all Megagesetz zu verabschieden.
Es geht mir ja nicht darum, hier den Diskussionsrahmen immer weiter einzuschränken, sondern eben darum, dass entsprechende Algorithmen noch viel stärker als alles, was es davor gab, Leute in immer radikalere Filterblasen pushen oder, wie man an X super sehen kann, politisch motiviert Verschwörungstheoretikern und Nazis absichtlich massiv mehr Reichweite gegeben wird.
Diese enorme Verzerrung der öffentlichen Meinungsbildung ist mit der Demokratie unvereinbar, denn freie Wahlen bringen nichts, wenn die Menschen komplett verschwurbelt und antiaufgeklärt sind. Ich sehe die Entwicklungen auf X, Meta etc. als Frontalangriff auf die Demokratie, denn jetzt wird langsam klar, dass die Reichen und Mächtigen dieser Welt über derarte Propagandasprachrohre ihre Macht ausbauen und dabei die Demokratie zu ihrem Vorteil aushöhlen und - wie in den USA - vielleicht sogar zerstören wollen. Die “Flood the zone with shit”-Strategie von Bannon oder der “A lie, repeated often enough, becomes the truth”-Klassiker sind nur der Anfang, denn mittlerweile sind ja sogar die Plattformen so strukturiert, dass sie solche Taktiken verstärken. Diese Gefahr sollten wir todernst nehmen und entsprechend agieren.
[Edit: Typo]
Oh! Hast du da irgendwelche Lesetipps? Vielleicht nicht gleich ein Buch. Irgendwelche Links, oder Stichworte/Name von Forschern, die man nachschlagen könnte?
Möglich. Ich kenne nichts Aktuelles über die Praktiken. Für Lesetipps wäre ich dankbar aufgeschlossen.
Ich habe einfach nicht den Eindruck, dass man die Hypothese brauch, um den beobachteten Zustand zu erklären.
Der DSA bringt gewisse Transparenzpflichten. Etwas, das ich ausnahmsweise einfach positiv finde. Die Datenbank mit der geschalteten Werbung könnte in dem Zusammenhang aufschlussreich sein.
Ich habe kürzlich in die Datenbank der Moderationsentscheidungen reingeschaut, wegen dieser Redditsache. Aber im anonymisierten Zustand kann man da natürlich nichts rauslesen. Man müsste untersuchen, ob man Auffälligkeiten über die Zeit erkennt, also ob die Moderation sich verändert um den Zeitpunkt als Musk Huffman kontaktiert. Rechtlich wäre da aber kaum was zu machen. Eine Plattform muss aktiv werden, wenn sie von illegalen Inhalten erfährt, egal wie.