Ein abendfüllendes Thema! 😉
Ich versuche mal ein paar "allgemeine Postulate" abzulassen und Konzepte vorzustellen
Barghest schrieb
Natürlich kopiere ich regelmäßig meine Dateien auf ein NAS, aber das was Du ansprichst geht natürlich über so etwas weit hinaus.
1. Jedes Backup ist besser als kein Backup
2. Der gröbste Fehler ist, "Backup" auf einen Vorgang oder Programm zu reduzieren.
Datensicherung ist v.a. ein
Konzept, was u.a. aus den Prozessen Sicherung,
Archivierung (wann,wie,was,wohin), Dokumentation und der Wiederherstellung besteht.
Wenn das nicht beherzigt wird stimmt (leider) auch 1. nicht mehr.
Beispiel (nicht nur aus der Windows-Welt): Das Super-Tool hat sich ins Sytemtray einge-
bunden, die Einstellung war genauso einfach wie die Werbung versprach ("Backup
in fünf Schritten"), nach ein paar Klicks kommt die Meldung: Backup erfolgreich.
Genau das wollte der Anwender sehen und ist stolz auf sich. Da das Super-Tool auch
ein Super-Dupper-Tool ist kommt fortan jeden Tag diese Meldung: Backup erfolgreich.
Am 7. Tag ist die System-Festplatte kaputt. Somit auch das Super-Dupper-Tool.
Jetzt steht Hans Mustermann da: ohne Tool, ohne Doku(die was ja als PDF auf dem
System), ohne Internet(Online-Doku ist toll, bis...) aber mit einer CD/DVD/externen HD.
Somit:
3. Der gesamte Vorgang Sicherung/Restore muß von dem/denen, die mit dem System
betraut sind, in allen Bereichen durchgespielt und (extern!) dokumentiert sein. Am besten
auch der Super-Gau. Ein Server mit angeschlossener Backup-Peripherie am besten
bevor er in Produktion geht (z.B. das installierte System löschen oder einen Plattenausfall
und Wechsel durchspielen). Im Privatbereich kann man sich mit virtuellen Maschinen
(VirtualBox z.B.) behelfen. Man sollte und kann so das bedenkenlose "Kaputtmachen"
üben und steht dann später nicht wie Ochse vorm Berg. Erst dabei zeigen sich dann
z.B. auch Fehler die man bei der Sicherung macht.
4. Ein RAID hat
nichts mit Datensicherheit zu tun!
Raid/Spiegelung oder wie immer man es nennt dient lediglich der Ausfallsicherheit. Um
also einen Rechner z.B. nach einem Plattenschaden möglichst schnell wieder oder
weiternutzen zu können. Eine irrtümlich gelöschte Datei ist aber sofort auf allen
Raid-Devices gelöscht.
5. Image vs. Dateisicherung
Eine 1:1 Sicherung auf Blockeben(also ohne sich um den Inhalt zu kümmern,Image) ist
eine gute Möglichkeit der Komplettsicherung und des schnellen Wiederherstellens. Aber
der wiederhergestellte Stand ist immer der der letzten Sicherung. Wenn diese dann
2 Wochen zurückliegt hat man zwar schnell wieder ein laufendes System, aber es
fehlen exakt 2 Wochen Daten. Auch wenn man z.B. täglich ein Image zieht hat man
ja immer nur ein Abbild des aktuellen Standes (inkl. evtl. gelöschter oder defekter
Dateien). Und Generationen von Images zu ziehen schränkt die Wiederverwendung
meist darauf ein: Image von Tag X
oder Tag Y. Images brauchen i.d.R. viel Platz,
im ungünstigsten Fall (wie dd) exakt den gleichen wie die zu sichernde Platte/Partition.
Mehrere Sicherungen multiplizieren dieses, außerdem kann meist nicht gezielt auf
einzelne Dateien zurückgegriffen werden, ein Restore einer Datei bedeutet also meist
ein Restore des Komplettsystems (was wiederum andere Datenverluste bedeuten kann).
Sicherung auf Datei-Ebene bietet die größtmögliche Flexibilität, der Aufwand der
Sicherung und der dafür notwendige Platz reduziert sich auf die wirklichen Nutzdaten.
Außerdem ist damit möglich: einfache Generationensicherung, Sicherung nur von
geänderten Daten, Wiederherstellung aus unterschiedlichen Generationen.
Dagegen ist der Vorgang der Sicherung und der Wiederherstellung komplexer als bei
einem Image.
Egal welches Konzept man möchte gilt:
6. Je mehr ich sichere, desto größer die Wahrscheinlichkeit, das die Daten die ich brauche,
auch dabei sind. Je mehr rückwärtige Sicherungen(Generationen) ich habe, desto größer
die Wahrscheinlichkeit, den Inhalt zu bekommen den ich brauche.
Von der Diplomarbeit immer nur eine Sicherheitskopie (evtl. nur die des Editors) zu haben
verbietet eigentlich schon der gesunde Menschenverstand. Seine täglichen Sicherungen
immer nur auf eine CD/DVD-RW zu machen verbietet der gesunde Menschenverstand.
7. KISS
Konzepte vermeiden, die nur mit einem bestimmten Tool nutzbar sind (außer dieses
Tool ist immer verfügbar. Wenn ich erst ein System installieren muß um ein Tool starten
zu können was mir die Wiederherstellung eben dieses Systems ermöglicht... Tonne!)
Eine Datei mit tar und gzip zu sichern und dann noch in ein Rar zu packen potenziert
die Fehlermöglichkeiten.
Im Idealfall liegen die Daten in ihrer ursprünglichen Form vor, sodaß z.B. ein einfaches
cp zur Wiederherstellung genügt.
Ich muß jeden Teilbereich des Konzepts verstehen!!!
8. Kosten/Aufwand
"Was! Allein für Streamer/NAS/externe Platten/... soll ich 2000€ ausgeben?"
Demgegenüber muß sich jeder (auch als Privatmensch) die Frage stellen: Was bedeutet
der Verlust von bestimmten Daten (oder aller Daten) im schlimmsten Fall?
Produktionsausfall (z.B. Adressdaten, Bestelldaten), Diplom/Doktorarbeit, oftmals
Existenzverlust wenn plötzlich "der Computer nicht mehr da ist".
Wenn so plötzlich ein Auftrag mit einem bestimmten Volumen flöten geht, oder der
Betrieb dicht machen kann: Rechnen kann jeder - meist wären dann 2000€ ein Pappen-
stiel gewesen.
Aber auch als Privatmensch kann die Bildersammlung einen "Wert" haben. Zwei externe
Festplatten zu kaufen ist da ein "schöner Brocken", aber was sind einem die Daten
wert wenn diese "weg" sind?
CD/DVDs von der "1000er-Spindel vom Flohmarkt" verbieten sich da von selbst. Selbst
wenn ich 3-4€ für ein Medium ausgeben muß ist dieser Preis meist recht gering im
Verhältnis zum Verlust.
So, daß war der Schwafel-Teil (ich hatte gerade Zeit<g>)
Vielleicht zeige ich einfach mal, wie ich das so handhabe.
a) Auswahl an Daten.
Meine "lebensnotwendigen" Daten auf den Rechnern kriege ich weiterhin auf nur eine
CD-RW (daß mache ich auch so 1 x die Woche, da diese Daten nicht wild über 1000
Verzeichnisse verstreut liegen reicht das Sichern mit k3b eines Ordners). Für diesen
Vorgang habe ich 5 CD-RWs im Wechsel. Diese kann ich mir im Falle eines Falles auch
einfach einstecken.
Zusätzlich sichere ich mehr persönliche Daten auf eine DVD-RAM, auch da kriege ich
was ich gerne hätte (lebensnotwendig plus Wichtig) locker noch drauf. Auch hier mehrere
Medien, so 1 x im Monat.
Meine Daten sind alle auf dem Server abgelegt. Dort ist ein Streamer drin (habe ich
schon seit Jahren, kann 20/40GB-Tapes). Dort sichere ich mit bacula meinen Server
komplett (bis auf wenige Ausnahmen). Da ein Tape immer im Streamer ist verliere ich
maximal 1 Tag.
(Hier nochmal ein Einschub: Wenn die Datensicherungs(-Medien) am gleichen Ort sind,
dann kann sich z.B. im Brandfall die mühsame Sicherung in Rauch auflösen. So ist es
oftmals notwendig im Konzept eine Auslagerung der Sicherung vorzunehmen.
Beispiel: Sicherung auf eine externe HD. Diese muß ja meist zwecks der Sicherung
am Rechner verbleiben. Eine Überlegung ist jetzt: Man verwendet 3 Festplatten.
Eine bleibt zu Hause, eine wird zur nächsten Sicherung angestöpselt und die von der
letzten Sicherung nimmt man mit nach Hause. Dort erfolgt dann der Wechsel/Turnus.
Das ist aber teuer! Siehe Punkt 8!)
Weiterhin sichere ich mit einem rsync-basierenden Tool (dirvish) meine Rechner im LAN
und den Server auf eine externe HD. Das ist eine Sicherung auf Dateiebene.
Barghest schrieb
Wäre es dann theoretisch möglich, nach einen dummen Fehler sein System über das NAS wieder herzustellen?
Ja. Angenommen mein Server ginge kaputt, oder ein anderer PC, oder alle. Ich brauche
dann nur irgendeinen (neuen) Rechner (gebootet über eine Live-CD), der mir Zugriff
auf meine externe HD ermöglicht.
Ich kann jeden meiner Rechner davon durch einfaches cp oder rsync wiederherstellen
(da die Daten im Original vorliegen, nach Rechner und nach Mount-Point(ab /) gesondert
dort vorliegen).
Weiterhin kann ich auf beliebige Einzeldateien zugreifen und das über einen langen
Zeitraum. Ich habe z.B eine Generationen-Sicherung durchgängig rückwirkend über
2 Monate täglich und noch zwei extra von vor 3 und 4 Monaten
Ähnliches kann ich mit meiner Sicherung auf Tapes erreichen, ich brauche lediglich
den Controller/Streamer/Tapes und eine Live-CD mit bacula drauf. Das ist allerdings
nicht ganz trivial und ich werde diese
zusätzliche Möglichkeit wohl demnächst
wieder zu einem einfachen tar ändern - wg. KISS.
Beide Möglichkeiten bieten mir aber ein Restore zur Komplettwiederherstellung wo ich
bei unterschiedlichem Aufwand irgendwann sagen kann: (Yes/No?) yes und dann
Kaffee trinken gehe.
Was macht nun rsync-basierende Konzepte so interessant/einfach?
Eben die Einfachheit, v.a. beim Wiederherstellen da die gesicherten Dateien auf einem
normalen Dateisystem liegen auf das ich mit Bordmittel immer ran komme (cp oder
wieder rsync).
Festplatten als Sicherungsmedien sind in sog. SOHO(SmallOffice/HomeOffice) das
günstigste Sicherungsmedium. Es ist also einfach möglich, Gesamtsysteme/Dateien als
Quelle mit einem (externen) Ziel synchron zu halten.
Als zweites kommt ein geniales Konzept der UNIX-Dateisysteme zum Tragen: Hardlinks.
Hardlinks ermöglichen Kopien von Dateien an unterschiedlichen Orten (auf dem gleichen
FS) zu halten, ohne das diese Kopien Speicherplatz verbrauchen (außer für den Link
selbst). Trotzdem sind diese Kopien (im Gegensatz zu Softlinks) unabhängig, d.h. das
Löschen
einer Kopie bewirkt nicht das Löschen der anderen - im Dateisystem wird
lediglich ein Zähler um 1 verringert. Erst wenn dieser Zähler durch Löschen auf Null
zurückgeht wird die Datei wirklich gelöscht (bzw. die letzte Kopie entfernt).
Tools wie dirvish oder backuppc (Oder auch der Anwender mit ln) machen sich das
jetzt für die Generationen-Sicherung(inkremental) zu Nutze. dirvish z.B.:
Beim Start der Sicherung wird die Sicherung vom Vortag (z.B. /home) hart verlinkt
zu einem Ordner für heute (Bsp.: 20080424-home nach 20080425-home). Ich habe so
für gestern und heute zwei
vollkommen unabhängige Sicherungen die aber trotzdem
nur den Speicherplatz von einem Satz belegen(Hartlinks!).
Jetzt wird die Sicherung mit rsync gestartet. Wenn sich die Quelle nicht geändert hat,
dann bleibt der Hardlink (z.B. /etc/fstab) unangetastet im Ziel. Wenn sich die fstab aber
in der Quelle geändert hat dann überschreibt rsync die Zieldatei im Backup. Das FS
reduziert dabei den Zähler des Hardlinks um 1, die "neue" fstab ist der Vater für
zukünftige Hardlinks und belegt dafür auch real Plattenplatz. Aber eben nur dann.
Ich habe z.B. 3 komplette Rechner (2 x Arbeitsplatz + Server) komplett gesichert in
176GB. Trotzdem habe ich für jeden Rechner durch die Hardlinks: Eine unabhängige
Einzeltags-Sicherung über 2 Monate plus die zwei für den 3. und 4. Monat.
Somit kann ic z.B. für jeden Rechner sagen: Stelle mir das komplette System so wieder
her, wie es z.B. am 11.03.2008 war. Oder suche mir in den Generationen der verlinkten
Einzeldateien eine mit bestimmten Änderungen raus.
Backuppc z.B. geht - neben einer gut bedienbaren Oberfläche - noch einen Schritt weiter
mit den Hardlinks. Das nämlich auch unterschiedliche Rechner "verlinkt" werden. Wenn
z.B. 20 unterschiedliche Windows-PCs zu sichern wären (C:), dann würde im Idealfall
nur Platz für 1 gebraucht (20 minus 19). Oder anders: die unweigerlich identischen
Dateien auch auf unterschiedlichen Rechnern würden nur einmal plattenplatznutzend
abgelegt, die anderen Kopien hardverlinkt. Trotzdem ist jeder Rechner "einzigartig"
gesichert.
So, nun ist genug! 😉
Könnte mir vorstellen, daß du etwas zum Nachdenken und/oder zum gezielteren
Fragen hast.
Bei dir also: Was will ich denn sichern? Langen einzelne Daten (/home) z.B.. Na, evtl.
noch /etc. Damit kann man sein System nach einer Neuinstallation schon wieder
hinbekommen.
Dann merkt man aber irgendwann: Oh, hätte ich /var/cache/pacman/pkg auch gesichert,
dann hätte ich Paket xyz noch.... Je mehr ich (mit vertretbarem Aufwand) sichere, desto
mehr Möglichkeiten habe ich halt bzw. die Wahrscheinlichkeit etwas zu vergessen
reduziert sich.
Und halt: nie bedingungslos einem Konzept vertrauen. Ich z.B. habe vier Möglichkeiten,
mindest an meine "lebensnotwendigen" Daten ranzukommen: die CD, die DVS-RAM,
die Tapes und die externe HD. Das alle Möglichkeiten versagen ist ziemlich
unwahrscheinlich.