Ich habe gerade mal (auf FreeBSD, aber das ist eigentlich unerheblich) mein /usr mit ca. 3,2 GB testweise gesichert. Das ergab ein tar.gz mit ca. 1 GB und war in 8 Minuten erledigt (AMD64 Dualcore 5600+).
Ist dieses "Pogo" evtl. eine Hardware, die über unzureichende CPU-Leistung bzw. Arbeitsspeicher verfügt?
Andere Idee: Hast du schon mal die externe HD (plus NTFS) als Ursache getestet? Also einfach mal eine größere Datenmenge auf die HD kopieren. Evtl. bremst dabei ja etwas.
Ich arbeite bei tar als (Voll)sicherung eigentlich immer mit der Option --one-file-system. Dadurch kannst du dir z.B. das ganz Excluden der Pseudo-dateisysteme wie proc,dev,sys sparen, und auch das Tar-Ziel unterhalb /media mußt du nicht explizit ausschließen.
one-file-system sichert bei / genau nur das Dateisystem was z.B. mit /dev/sda1 als / eingehängt ist. Keine anderen Mounts/Dateisysteme. Ein gemountetes /home (bsp. /dev/sda2) würde so nicht einbezogen werden und müßte ggf. separat in ein extra tar-Archiv. Excluden müßtest du so nur Verzeichnisse/Dateien die effektiv auf sda1/Rootfs existieren.
//Edit: Gerade von Vorteil, wenn noch (X)-User angemeldet wären und sowas wie gvfs o.ä. "Automounter" laufen, sowas kannst du nie alles "excluden".
Mein Aufruf sah so aus:
tar cvzf /var/tmp/usr-test.tar.gz --directory=/usr --one-file-system --totals .
Sicherte eben nur das Dateisystem welches als /usr eingehängt ist (und nicht /usr/home, da anderes FS - aber ohne excluden zu müssen).
Prinzipiell ist die Sicherung eines laufenden Systems nicht problematisch - aber nicht umsonst haben die modernen Dateisysteme eine Snapshot-Funktion. Gerade bei den veränderbaren Dateien (und das sind ja i.d.R. die wichtigen Daten!) kann eine Tar-Sicherung (bzw. ein Kopieren) halt nicht garantieren das sich zwischen Beginn und Ende der Kopieraktion die Daten nicht geändert haben.
Ich persönlich würde/mache das immer in einem Systemzustand, bei dem möglichst wenige Nutzdaten in der Sicherungszeit verändert werden könnten/müßten. Also möglichst keine Dienste am Laufen, kein X, möglichst im Single-User-Modus.
Du könntest ggf. ein Test mit einem großen, aber nicht der kompletten Größe als Backup mal versuchen. Auch mal den Systemzustand mit den üblichen Tools wie top/htop/atop und/oder vmstat/iostat mitverfolgen, Augenmerk hier v.a. auf CPU-Last, Speicher und hohe WAIT-Werte (bei top z.B.).
Ansonsten kann so ein Zustand (ewig lange, tröpfelt mit ~20Kb) auch auf kaputte Hardware (Quell-Speichermedium/RAM) bzw, Ziel-Medium hindeuten. Abgesehen vom USB-Subsystem wenn es USB-Platten sind...
Mehr konkrete Ideen habe ich leider nicht.
//Edit2: versuche es auch mal ohne Komprimierung, für das NTFS-Ziel reicht ja auch ein normales tar-Archiv, die rund 2 GB für eine unkomprimierte Sicherung wirst du ja wohl frei haben.