dade schrieb
Ich bin auch nicht der Meinung, dass sich Rolling Release und Stabilität gegenseitig ausschließen.
Eigentlich schließen sie sich schon aus, aber teilweise hast du damit Recht. Allerdings, wer macht das? Schau dir doch mal die Arch Linux Community an. Wir haben hier nicht ne Firma mit dick Geld dahinter wie bei Ubuntu oder so. Arch ist mehr oder weniger ein Hobbyprojekt. Wenn ein Entwickler mal keine Zeit oder Lust hat dann ist das halt so, abgesehen davon dass es sowieso relativ wenig Entwickler gibt.
dade schrieb
Die naheliegenste und einfachste Strategie für ein stabiles Produktivsystem ist aus meiner Sicht ein Repositorium.
Du meinst ein "stable" Repositorium? Das halte ich persönlich für eine schlechte Idee. Nach Möglichkeit sollte das aktuellste "stable" sein, aber auch dafür fehlts an Manpower. Es gibt ja schon leichte Bestrebungen in die Richtung, zum Beispiel den LTS Kernel, aber ich glaube nicht dass es schlau ist Arch in 2 verschiedene Repositories zu splitten. Es gibt genug andere Distributionen die das so machen.
dade schrieb
Wozu gibts eigentlich Testing?
Zum testen 😉. Man kann(und will) aber nicht für jedes System sicherstellen dass alles reibungslos funktioniert. Natürlich ist es immer gut wenn möglichst viel "einfach so" tut. Du darfst gerne mithelfen.
Dass dein System läuft ist bei Arch deine Sache, nicht die der Entwickler. Die stellen quasi nur ein "Framework", und du hast dich drum zu kümmern dass dein System so läuft wie du es willst. Ist dir das nicht möglich, aus Zeitgründen oder so, ist Arch einfach nichts für dich.
Es gibt verschiedene Strategien um ein Produktivsystem und neueste Software unter einen Hut zu bringen. Aus meiner Sicht ist es das Schlaueste LVM einzusetzen. LVM bietet die Möglichkeit von "Snapshots"(neben vielen anderen, tollen Dingen). Dabei wird der Stand eines Volumes, genau so wie es gerade ist, festgehalten und ist über ein seperates Blockdevice ansprechbar. Diese Snapshots sind auch beschreibbar, und natürlich kann man davon booten.
Man benutzt dann quasi nur den Snapshot. Da kann man blind einfach alle mögliche Updates installieren und so. Stellst du fest dass irgendwas nicht funktioniert, du dein System aber genau jetzt brauchst, kannst du auf das Originalvolume rebooten und da deinen Kram machen. Das Problem auf dem Snapshot kannst du dann immernoch beheben wenn du mal irgendwann Zeit hast.
Man sollte aber drauf achten dass Original und Snapshot nicht zu weit auseinanderdriften.
Ich halte es so dass ich fast immer auf meinem "Original" arbeite. Updates spiele ich nur selten zwischendurch ein, wenn dann sehr selektiv. Steht ein größeres Update an(z.B. KDE, der Kernel oder was auch immer) oder die Menge der nicht durchgeführten Updates ist inzwischen sehr groß geworden, lege ich einen Snapshot an, führe dort die Updates durch und arbeite darauf. Wenn ich mir sicher bin dass alles zufriedenstellend läuft(dabei achte ich auch auf Performance des System und so weiter) lösche ich den Snapshot wieder und bringe das Originalsystem auf den getesteten Stand. Warum ich das so mache und nicht wie weiter oben beschrieben ist ganz schnell erklärt: Performance. Snapshots sind relativ langsam. Zwar jetzt nicht unfassbar lahm oder so, aber bei großen Dateioperationen merkt man das dann schon.
Das schöne an dieser Strategie ist dass man das immer machen kann wenn man grad eh Zeit hat. Sollte irgendwas nicht funktionieren kann ich jederzeit auf mein "stable" System rebooten. Natürlich kann man sowas ähnliches auch ohne LVM realisieren, zum Beispiel mit 2 Partitionen. Aber um sicherzustellen dass alles initial gleich ist müsste man dann immer alles kopieren. Das dauert ewig, und während dieser Zeit kann ich mein System nicht benutzen solange ich nicht riskieren will dass am Ende nur inkonsistenter Müll rauskommt.
Mit LVM könnte man auch einen Snapshot anlegen und ein zusätzliches neues Volume. Vom Snapshot dann die Daten auf das neue Volume kopieren, dann kann man immer mit seinem Testsystem arbeiten ohne einen Performanceverlust in Kauf nehmen zu müssen. Geschmacksfragen.