Hallo liebe Community,
wie euch sicher nicht entgangen ist, gibt es seit dem letzten Update auf die aktuelle Version v0.19 von Lemmy einige Probleme. Dies betrifft hauptsächlich zwei Bereiche:
- die Föderation
- häufige Fehlermeldungen
Der erste Punkt sollte eigentlich mit dem Update auf v0.19.1 behoben werden, was aber nicht ganz den gewünschten Effekt zeigt. Im Moment scheinen alle Beiträge nur einmal am Tag auf andere Instanzen gepusht zu werden.
Das zweite Problem wurde mit dem Update noch nicht behoben, ist aber den Entwicklern bekannt, besteht aber weiterhin. Einige Apps scheinen client-seitige Maßnahmen zu implementieren, die diese Fehler unterdrücken oder einfach ignorieren, z.B. Voyager (Download-Links sind auf deren GitHub-Seite zu finden, aber es kann sein, dass die Versionen in den App Stores das Update noch nicht bereitstellen).
Leider können wir auch nicht einfach ein Downgrade auf 0.18.5 durchführen, da Lemmy keine Unterstützung für die Migration der Datenbank auf eine frühere Version bietet. Und da viele von euch bereits ihre 2FA und Passwörter aktualisiert haben und seitdem viele Beiträge geschrieben wurden, wollen wir auch nicht das Backup von vor dem Update einspielen.
Ich verstehe, dass dies im Moment nicht sehr angenehm ist und möchte mich für die Unannehmlichkeiten entschuldigen.
- Update 2023-12-31: Informationen zum Ausfall am 29/30.12.2023 gibt es hier.
- Update 2024-01-03: Die Föderationsprobleme scheinen trotz Fix nicht gelöst zu sein und funktioniert nur sporadisch, wenn überhaupt.
- Update 2024-01-11: Eine neue Version wurde eingespielt, welche die Probleme beheben sollte. Es kann noch etwas dauern bis der Server die aufgestauten Beiträge auf die anderen Server synchronisiert.
Gebt gerne Bescheid, falls weiterhin Probleme auftreten.
Hmm… seltsamer Effekt: Mein Beitrag ist auf anderen Instanzen vorhanden, aber hier – von wo er ursprünglich stammt – ist er verschwunden: https://lemmy.world/post/10106501
Das kommt daher, dass wir ein Backup von vor etwa 24h einspielen mussten, weil gestern ein schwerer technischer Fehler aufgetreten ist. Für mehr siehe hier.
Postgres korrupt? Gibt hier viele MINTler, kannst gerne ins Detail gehen wenn du magst
Platte ist vollgelaufen 😬 in folge dessen konnte dann das OS (oder zumindest die Dienste) nicht mehr starten.
Die persistent federation queue müllt die DB ganz schön zu, wenn sie nicht geleert wird (was anscheinend durch einen bug bei feddit und anderen Instanzen gerade nicht klappt)
Gäbe wahrscheinlich noch andere recovery Möglichkeiten (nur die entsprechenden columns leeren), aber wintermute ist gerade off Grid unterwegs und hat nicht so viel Zeit (kleiner heads up an der Stelle, Ende Januar kommt ein zweiter Sysadmin dazu)
Verstehe. Ich sah den Pull Request, dass sie die AP Event Publikation via DB queuen wollten. Ich war schon damals sehr skeptisch, denn eine DB ist einfach keine Queue. Bei kleiner Datenmenge geht’s noch aber bei größerer stirbt die DB, sie ist schlicht nicht für einen solchen Anwendungsfall gemacht. Es gibt einen Grund warum RabbitMQ oder Kafka existieren. Wollte mich aber nicht in die Diskussion einschalten, weil der Hauptentwickler in der Vergangenheit auf offensichtliche Verbesserungen sehr… ungewöhnlich reagiert hat, siehe https://github.com/LemmyNet/lemmy/pull/3009
Genau mein Gedanke. Keine Ahnung, ob die Devs vielleicht einfach nicht kennen. Das hätte uns die Probleme bestimmt erspart.
Der letzte Kommentar ist gold :D