Tjo... wegen dem Rolling Release hab ich jetzt seit 2 Wochen auch Arch drauf.
Gibt halt in der Tat immer wieder mal Pakete, die man doch gerne schon
haben will... ohne drauf zu warten, wenn's doch schon fertig ist.

Vorher 1,5 Jahre Ubuntu. Ubuntu war schon superleicht einzurichten.
Dass da ein paar Pakete "zuviel" installiert werden juckt mich bei meiner Kiste
nicht. Ist ja eh aktuell. Vieles, was ich unter Arch jetzt mühsam manuell einstellen
und installieren musste, löppt unter Ubuntu halt schon out of the box.

Ubuntu macht das schon ganz richtig. Für Einsteiger optimal.

Aaaaaber dafür hab ich in den letzten 2 Wochen Arch zwangsläufig mehr gelernt als
vorher 🙂 Musste mich halt intensiver mit den Konfigurationsdateien, Paketen etc. rumschlagen.
Das AUR ist auch klasse und megaeinfach 🙂

Eigentlich nervt mich das ja... das viele Selbsteinstellen... weil mir die Zeit dafür zu schade ist.
Andererseits ist das natürlich super, weil man dann eben lernt, was wo wann eingestellt werden
kann. Vorher war mir alles etwas schleierhafter. Jetzt klarer 🙂

Die Geschwindigkeit unter Gnome ist bei mir unter Arch weder langsamer, noch schneller als bei
Ubuntu. Aber der Bootvorgang kommt gut 🙂 Ubuntu mit gleicher Softwarekonfiguration 40 Sekunden,
Arch = 23 Sekunden. Speicherverbrauch nach der Anmeldung war unter Ubuntu 300MB bei Arch 250MB. Klar... unnötige Dienste laufen eben nicht, weil die erst gar nicht installiert wurden.

Finde aber super, dass es Ubuntu gibt, weil Anfänger damit erstmal weniger Probs haben...
... und das Wiki ist in der Tat super.

Früher oder später sieht man sich eh auch andere Distris an und bleibt bei einer Kleben.

Habe mir auch Suse, Madriva, Debian etc. angesehen. Die einzige, wo ich jetzt kleben geblieben bin ist Arch... macht halt nen guten Eindruck 🙂 Und die Qualität der Postings hier kann sich sehen lassen...

So... ich geh mal pennen...

Gruss Vinzenz
Moment - feste Releasezyklen heißt ja nicht unbedingt, kein RR.
Das sollte man nicht in einen Topf werfen.
Auch wenn einzelne Projekte feste Zyklen einhalten, heißt das ja nicht, daß das eine nicht im April (GNOME) fertig ist und das andere immer jeweils im Anschluß an den Google Summer of Code 😉

Feste Releasezyklen, bedeuten allgemin bessere Planungsmöglichkeiten, zeitiger Featurefreeze, ausmerzen von entsprechenden Bugs etc.

Ubuntu kommt ja auch nur deshalb alle halbe Jahre, weil so der Schnitt des GNOME-Entwicklerzeitfensters liegt.

Auch die Länge des Zyklus hat nur mittelbar mit der Stabilität eines Releases zu tun.
Nur weil ein annualer Zyklus eingehalten wird, heißt das noch lange nicht, daß der Release dadurch besser wird. Der Release kann nur so gut sein, wie die Planung zuvor 😉
lilith2k3 schrieb Moment - feste Releasezyklen heißt ja nicht unbedingt, kein RR.
Das sollte man nicht in einen Topf werfen.
Grundsätzlich nicht. In den meisten Fällen aber schon. 😉
lilith2k3 schrieb Feste Releasezyklen, bedeuten allgemin bessere Planungsmöglichkeiten, zeitiger Featurefreeze, ausmerzen von entsprechenden Bugs etc.
Stimmt, so sollte es sein. Wenn allerdings die Zyklen zu kurz sind kommt "ausmerzen von entsprechenden Bugs" eindeutig zu kurz. Und mit Verlaub, genau das ist z.B. bei Ubuntu der Fall. Ärgerlicher ist aber noch, das es nachher kaum weiter interessiert weil die wenig verfügbaren Entwicklerresourcen schon wieder an der neuen Version arbeiten (müssen).
lilith2k3 schrieb Auch die Länge des Zyklus hat nur mittelbar mit der Stabilität eines Releases zu tun.
Doch, meiner Meinung nach hat die Länge der Release-Zyklen unmittelbar Einfluß auf die Stabilität, insbesondere wenn sie zu kurz ist. Man vergleiche einfach mal die Ubuntu-Releases dapper, feisty, Gutsy, Hardy, Intrepid. Ich möchte nicht unken, aber nach meiner Erkenntnis hat die Stabilität permantent abgenommen...professionelle Anwender werden die "normalen" Releases nicht mal mit der Kneifzange anfassen, bei LTS erst mach 1/2 - 1 Jahr. Man vergleiche das mal mit Debian stable. 😉
lilith2k3 schrieb Nur weil ein annualer Zyklus eingehalten wird, heißt das noch lange nicht, daß der Release dadurch besser wird. Der Release kann nur so gut sein, wie die Planung zuvor 😉
Ja genau. Man muß aber genug Zeit dafür haben. Es bringt wenig seine fähigsten "Bauarbeiter" im Gewaltmarsch von einer Baustelle zur anderen zu schicken. 😉
Naja, daß die Releases "gefühlt" instabiler sind (ich hatte mit noch keinem Release Probleme und zwischendurch immer mal für Leute ein Ubuntu aufgesetzt) hätte, wenn es denn zuträfe, auch einen praktischen Hintergrund: Der Umfang der Distribution steigt ja auch von Release zu Release.
Je größer ein Projekt, desto höher ist die Wahrscheinlichkeit, daß Fehler an unerwarteter Stelle auftauchen.

Daß Ubuntu sich weniger dem Ausmerzen von Bugs widmet hat in meinen Augen weniger damit zu tun, daß der Releasezyklus zu kurz ist, sondern die Ziele für die einzelnen Releases zu hoch gesteckt werden; die arbeiten immer noch am "Bug N°1", Windows abzulösen. Und da wird einfach mal Compiz Fusion mit reingepackt, weil es ja einen Windowsbenutzer zum Umstieg veranlassen könnte - ob CF überhaupt was taugt, wird da nicht lang gefragt. AppArmor und SELinux sind auch schon integriert, ohne wirklich brauchbare Voreinstellungen für den Endverbraucher.

Ubuntus Problem ist Featureitis.

Man könnte das halbe Jahr auch anders nutzen: eine Handvoll Pakete werden gemerged, anschließend ausschließlich Bugfixing betrieben. GNOME gibt es nur noch einmal im Jahr aktuell und und und.
Was wäre die Folge? Die Leute würden Ubuntu nicht mehr nutzen wollen, weil der typische Ubuntu-Nutzer gern halbwegs aktuelle Pakete haben will.

Wer ein stabiles System (für Server) will, wird eh zu Debian wechseln.

Diejenigen Nutzer, die gern aktuell sein wollen, wenden sich auch jetzt schon von Ubuntu ab und gehen zu Arch, Sidux, Gentoo et. al.
Ja, da hast du zweifellos recht, kann ich 100% zustimmen.

Um es zu betonen, ich finde Ubuntu eine gute Distri, trotz aller kleinen Ecken und Kanten. Gerade deshalb sehe ich es mit einem weinenden Auge das die Qualität gelitten hat (IMHO).
lilith2k3 schrieb Wer ein stabiles System (für Server) will, wird eh zu Debian wechseln.

Diejenigen Nutzer, die gern aktuell sein wollen, wenden sich auch jetzt schon von Ubuntu ab und gehen zu Arch, Sidux, Gentoo et. al.
Das ist ja das Dilemma. Ubuntu ist irgendwo zwischendrin, nicht wirklich rock solid wie Debian stable (auch die LTS nicht) und nicht wirklich bleeding edge wie Arch oder Gentoo... 😉
Die gefahr, zu wiederholen was andere bereits geschrieben haben, ignoriere ich mal Dezent und schreibe was mich von einem Wechsel zu ubuntu abhält.

Dazu muss ich sagen: mit ubuntu habe ich angefangen.
Gewechselt habe ich wegen Stabilitätsproblemen und problemem mit der Performance, damals hatte ich nen recht alten rechner, und ubuntu war zu überladen für die Kiste.

1) Synaptic / Apt:
Synaptic ist zwar toll um in den Repos zu stöbern, aber wirklich perfomant ist das ganze nicht, updates dauern ewig, auch die darstellung der Paketlisten brauchte auf meinem Alten rechner ein wenig (~5 sekunden?). Und apt-get ist ein wenig zu verbose.
Bei pacman hat man solche probleme nicht. Es ist non-verbose (zum. was die grundfunktionen angeht), nach kurzer eingewöhnung extrem schnell zu händeln und es ist schön perfomant (und klein).
(Alles subjektive eindrücke)

2) Pakete, die ich nicht will
Im standard-repo von K/X/Ubuntu sind pakete drin, die ich eh nie nutze, diese dann auszusortiere raupt einem echt die Nerven... Auf meinem jetzigem Arch habe ich unter 600 pakete installiert, davon sind die wenigstens anwendungen, sondern grundlegende abhängigkeiten zu Xorg, XFCE, und meiner Handvoll anwendungen die ich wirklich nutze.
Allerdings: eine Archinstallation dauert aus dem grunde auch länger als eine Ubuntu-installation, vorallem wenn man wie ich nur 1000er "Dorf-DSL" hat.

3) Performance:
Ich vergleiche immer gern mit XP. XP verbraucht frisch installiert, ohne zusatzanwendungen ca. 180 MB.
Mein Arch verbraucht mit Firefox, aMSN, Pidgin und xchat ca. 180 - 200 MB.
Mein damaliges Ubuntu hat im Idle-betrieb ca. 180 - 200 MB ram verbraucht... und damals hatte ich nur 512MB SD-Ram.
Über die CPU-last von Ubuntu kann ich nicht viel sagen, allerdings hat das Starten von Firefox, ähnlich wie unter nem viren verseuchtem XP, minuten gedauert.
(Wie oben: Alles subjektive eindrücke)

4)Repos:
Arch hat zwar eig. ein recht kleines Repo, allerdings haben wir das AUR, das nicht nur extrem viel nachliefert, sondern teilweise auch SVN-versionen bereitstellt. Ich weiß nicht in wie weit sowas bei anderen Distributionen vertreten ist, aber ich kenne grade keine die ein AUR-ähnliche konzept bereit hält. Außerdem sind mir die Ubuntu-Repos (ähnlich wie bei Debian) zu unaktuell.
Einziger vorteil: Unter Ubuntu muss man nicht ganz so viele fehlerhafte / ungetestete Software in kauf nehmen, aber bisher hatte ich nur mit Xorg und einr Kernel-version probleme (die ich dank Forum und wiki lösen konnte).

5)It looks like:
(Nicht ganz ernst nehmen)
Ja, das feeling. Der Boot-screen von Ubuntu war mir schon immer ein wenig... zu wider... ich weiß gerne was mein system mach, und da ich faul bin, will ich dafür auch keine extra taste drücken müssen. Außerdem sind die Ubuntu-themes oft nich so ansehnlich wie die standardthemes von Gnome, KDE und XCFE... auch hier gilt: faulheit siegt *g*

mfg
The_Muh
@The_Muh: So unterschiedlich sind die Erfahrungen, die man mit verschiedenen Distris macht 🙂

Mit Ubuntu hatte ich z. B. nie Probs. Synaptic & Co. waren immer schnell.
Ok, ich rede hier auch von ner 16MBit Leitung und aktuellem Rechner.

Schön an Ubuntu ist halt... installieren... und das wesentliche läuft erstmal.
(Sound, Desktop, Drucker, Netzwerk etc.)

Die 7 Pakete, die mir zuviel sind deaktiviere ich halt im Menü. Die 200MB sollen mir ruhig
auf der Platte versauern 🙂

Diverse aktuellere Pakete gibt's zwar nicht so schön wie im AUR. Aber auch für das eine
oder andere gibt's ja Seiten oder ppas.

Arch hat halt ganz andere Vorteile. Gefällt mir auch super.
Wobei ich aber bei Arch schon diverse kleinere aber nervige Dinge hatte.
Suspend funktioniert nicht (fährt danach nicht sauber hoch (bei MIR)),
im oberen Gnome-Panel sind irgendwie die obersten beiden Pixelzeilen nicht aktiv.
Klicke immer wieder ganz oben links aufn Moni um das Anwendungsmenü zu öffnen,
geht aber nicht. Muss dann etwas tiefer klicken. So Kleinkram halt...

Achja... und plötzlich hatte ich nach einem Neustart auf einmal wieder das Standard Gnome Theme.
Hatte mein Arch mit ext4 aufgesetzt. Keine Ahnung, ob das evtl. mit nem Speicherproblem von Dateien zusammenhängt, von dem man letzte Zeit öfters liest. Hab jedenfalls vorsorglich wieder ext3.

XP braucht in der Tat ca. 180 MB nach nem Neustart. Aber auch da... ein paar "unnötige"
Dienste deaktivieren... und schon liegt man bei rund 100 MB.

Auch XP lässt sich megaschlank halten. Lässt sich auch sehr sicher machen. Ist gar nicht
viel für notwendig. Aber naja... es hat sich halt eingebürgert auf XP/MS zu schimpfen 🙂

Wie auch immer...

Mal was ganz anderes. Was ich ja megaätzend finde...
Dank Arch... hab ich ja jetzt mal ne Menge mehr Hintergrundwissen gelernt als unter Ubuntu
jemals zuvor. Aaaaaaber... WIESO the fuck... haben denn die verschiedenen Distris nicht die
gleichen Konfigurationsdateien ?? z. B. suche ich die rc.conf und andere Conf-Dateien unter
Ubuntu vergeblich, die ich hier so schön kennengelernt hab...

Das geht mir gerade so auf den Zeiger, wie es für Linux so viele verschiedene Paketsysteme gibt.
Wieso kann da nicht EINE EINHEITLICHE Geschichte verabschiedet werden ??

Naja... eh alles OT 🙂

Muss jezz ma pennen gehen...
Ich hab den direkten Vergleich, da ich vor kurzen auf der gleichen Hardware, wo Arch drauf läuft, Ubuntu drauf und Aptitude ist definitiv langsam. Allein die Abhängigkeitenüberprüfung dauert gefühlte Minuten.

Arch und Ubuntu sind beides schöne Distributionen - aber Arch gibt mir das, was ich brauche und wie ich es brauche; insofern ist Ubuntu für mich uninteressant.
Dank Arch... hab ich ja jetzt mal ne Menge mehr Hintergrundwissen gelernt als unter Ubuntu
jemals zuvor.
Dann solltest Du mal einen Blick in's Gentoo-Wiki (wenn es denn jemals wieder vollständig hergestellt wrden wird 😐) werfen. Das ist auch nicht uninteressant.
<z. B. suche ich die rc.conf und andere Conf-Dateien unter
Ubuntu vergeblich, die ich hier so schön kennengelernt hab../quote>
Naja, so verschieden sind die Distributionen ja nicht unbedingt.
Aber die rc.conf spielt unter Arch im zusammenhang mit dem BSD-Style-Initsystem eine andere Rolle als unter Ubuntu (die ja bekanntlich auf Upstart setzen) *G*
Das geht mir gerade so auf den Zeiger, wie es für Linux so viele verschiedene Paketsysteme gibt.
Wieso kann da nicht EINE EINHEITLICHE Geschichte verabschiedet werden ??
Welches Format hätten's denn gern?
Wenn das nur das einzige Stukturproblem von Linux wäre, wär die Welt ja in Ordnung *g*
OK, ein direkter Vergleich ist natürlich aussagekräftiger als mein Indirekter...

Gentoo-Wiki ? Hab noch nichtmal das Arch-Wiki ganz durch 😉

Naja... Strukturprobleme gibt's ja einige.
Schöner wär's aber.... wenn man ... egal an welcher Linuxkiste man sitzt...
sich überall gleich heimisch fühlen könnte...

So... jetzt aber wirklich mal pennen gehen...

Good N8 @all 🙂
Vinzenz schrieb Naja... Strukturprobleme gibt's ja einige.
Schöner wär's aber.... wenn man ... egal an welcher Linuxkiste man sitzt...
sich überall gleich heimisch fühlen könnte...
Ich glaube, man sollte einige Unterschiede schon belassen. Das mit den Config-dateien geht mir zwar auch auf den Keks, aber was solls? Eine einheitliche WLAN-Schnittstelle, sowie eine entscheidung zwischen ALSA und OSS erscheinen mir da dringender. (Auch wenn letzteres unwichtiger ist, jeder mag halt was anderes).

Außerdem, man kann Configs Effizient, oder einfach halten, im fall von Arch sind sie eher effizient, aber ein Ubuntu-user hat nicht das verlangen mit Nano, Vim o.ä. in der konsole zu werkeln, um sein System zu konfigurieren, was ich den Linux-neulingen auch nicht zutrauen will.

Auch wichtig wäre, ein einheitlicher Window-Handler... GTK, QT... allerdings erkenne ich die probleme, die mit einer umstellung verbunden wären... GTK-Projekte müssten auf QT umsatteln, oder eben andersrum... auch die sache mit den KDE- und Gnome- libs ist nicht sehr prickelnd... wer als Gnome- oder XFCE-user K3B installieren will, darf erstmal zig tausend libs laden...

Aber andersrum gesehen, bringt so ein Mischmasch auch vorteile (und nachvollgendes lässt sich auch auf die Distributionen übertragen):
Jeder entwickler will, das seine Software von möglichst vielen benutzt wird, und das spornt zu besseren leistungen an. (und um nicht aus der Rolle zu fallen: Die MS entwickler wissen, das ihre software bentutz wird... guckt euch das ergebnis an *g*)
In der Wirtschaft funktinierts ja auch... (mit abstrichen)... und, der Browserkrieg hat auch zu enormen Fortschritten gesorgt, warum nicht diesen (Wett)kampf auch innerhalb der Linux-Welt beibehalten?
Ist zwar teilweise Ärgerlich für Nutzer und Entwickler, aber wenn es dem Fortschritt dient... =)

Zurück zum Thema:
Mein damaliger Rechner hatte 1,2 Ghz (Intel Celeron), ne IDE/Ata-Platte (20 Gb) und 512 MB ram... weder Ubuntu noch Win (egal welches...) liefen darauf normal... mit Arch hats am besten geklappt, allerdings: hab damals kein Xubuntu ausprobiert... weil ich so ein riesen gnome-fan war... heut hab ich nen "modernen" dual-core mit 2 gig ram und tucker mit XFCE durch die gegend *gg*

Achja... Synaptik, das von ziehmlich vielen (auch von mir) verdammt wird, hat auch seine vorteile... versetzt euch doch mal in die Lage von nem Linux-Anfänger, der absolut keine ahnung hat. der guckt so durchs Menü, findet "Software installieren" und klickt drauf...
Bei Arch muss man schon wissen wie man software installiert und updatet... da gibts kein Menü das einem alles erklärt. Das hat durchaus vorteile.
Warum ich Ubuntu trotzdem nicht mehr empfehle liegt an erfahrungen mit sehr sonderlichen ubuntu-abstürzen und problemen. (Ich tendieren für anfänger ein Fedora oder ein zenwalk zu empfehlen...)

mfg
The_Muh
P.S.: musste kürzen... meine freundin will (mit mir) telefonieren *gg*
Arch nutzt BSD-style inits, Debian, Suse usw. dagegen Sys V.
Ein wenig Google bringt den Unterschied zutage. Mir persönlich liegt das BSD-style deutlich besser. 😉

Du hast/hattest Probleme Windows (XP) oder Xubuntu brauchbar (performant) auf einem 1.2 GHz 512 MByte RAM System zum laufen zu bringen? Das ist wohl wieder mal so ein Punkt für die Märchen-/Mythenkiste.

btw.
...noch Win (egal welches...)...
Pack da mal Win95/98/SE/NT drauf. Das rennt wie ein Adidas-Turnschuh. :lol: Alternativ Knoppix, DSL, ... ARCH 😉
Vinzenz schriebAchja... und plötzlich hatte ich nach einem Neustart auf einmal wieder das Standard Gnome Theme.
Hatte mein Arch mit ext4 aufgesetzt. Keine Ahnung, ob das evtl. mit nem Speicherproblem von Dateien zusammenhängt, von dem man letzte Zeit öfters liest. Hab jedenfalls vorsorglich wieder ext3.
Ist das Problem durch ext3 weggegangen? 🙂 Ich habe dasselbe Problem (ebenfalls ext4), allerdings reicht es bei mir, auf dem Desktop einfach einen Rechtsklick zu machen und "Hintergrundbild ändern" auszuwählen...
Wenn ich mir die diversen Problemchen mit Ext4 anschaue (bei Ubuntuusers) werde ich wohl noch lange lieber auf das superstabile Ext3 setzen. 😉
Gerade beim FS setze ich lieber auf Stabilität als Aktualität und das letzte Tröpfchen Speed.
5 Tage später
DeJe schrieb Arch nutzt BSD-style inits, Debian, Suse usw. dagegen Sys V.
Ein wenig Google bringt den Unterschied zutage. Mir persönlich liegt das BSD-style deutlich besser. 😉

Du hast/hattest Probleme Windows (XP) oder Xubuntu brauchbar (performant) auf einem 1.2 GHz 512 MByte RAM System zum laufen zu bringen? Das ist wohl wieder mal so ein Punkt für die Märchen-/Mythenkiste.

btw.
...noch Win (egal welches...)...
Pack da mal Win95/98/SE/NT drauf. Das rennt wie ein Adidas-Turnschuh. :lol: Alternativ Knoppix, DSL, ... ARCH 😉
Xubuntu hab ich auf der alten Kiste nicht getestet (kann es irgentwann ja mal tun), aber XP lief definitiv nicht flüssig.
Win2k lief auch nicht wirklich gut, allerdings ist win2k allgemein recht unperfomant (meine erfahrung)
98 (SE) konnte ich nicht richtig installieren (Keine ahnung mehr warum, lag glaub ich an nem Treiberproblem) , und nen riesigen rücksprung auf 95 wollte ich erst recht nicht machen.

Arch lief dagegen auch mit Gnome wunderbar schnell.
Dazu muss ich sagen, der Prozessor war / ist nen recht betagter Celeron, und der RAM war auch nur "billiger" SD-Ram (4 * 128 MB)... also allein nach den Zahlen darf man da nicht gehen, hab nämlich von einigen gehört das die komplette Celeron-Serie nicht grade durch hohe rechenleistung glänzt (sondern lediglich mit verhältnismäßig hohen taktzahlen).

mfg
The_Muh
The_Muh schrieb ....
Win2k lief auch nicht wirklich gut, allerdings ist win2k allgemein recht unperfomant (meine erfahrung)
...
dafuer meiner meinung nach nach win nt4 das stabilste, was microsoft an desktop-os zu bieten hat