Hohe SWAP Auslastung deutet auf Probleme mit unzureichendem Hauptspeicher hin.
Dies kann verschiedene Ursachen haben. Erste Anlaufstellen wären bei mir top, free und df.

Bezüglich des Verbrauchs von Festplattenspeicher: Benutzt du zufällig btrfs und dessen Baum ist nicht balanciert?

  • t_s85 hat auf diesen Beitrag geantwortet.

    Hallo schard
    der SWAP ist voll geworden als im Internet unterwegs war. hatte es mitbekommen weil der Lüfter angesprungen ist und fast alle Kerne auf 90% leistung waren. Nach einem reboot war dann alles wieder gut mit dem SWAP. Jedoch nicht mit der Festplatte.
    Bin bei Archlinux noch in den Kinderschuhen unterwegs könntest du mir da genau sagen was du meinst im bezug auf die Festplatte?

    Gib uns mal ein paar Infos, mit denen wir arbeiten können:

    $ lsblk -o +FSTYPE
    $ df -h
    • t_s85 hat auf diesen Beitrag geantwortet.

      lsblk -o +FSTYPE
      NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS FSTYPE
      sda 8:0 0 931,5G 0 disk
      └─sda1 8:1 0 931,5G 0 part ext4
      nvme0n1 259:0 0 238,5G 0 disk
      ├─nvme0n1p1 259:1 0 300M 0 part /boot/efi vfat
      ├─nvme0n1p2 259:2 0 229,4G 0 part / ext4
      └─nvme0n1p3 259:3 0 8,8G 0 part [SWAP] swap

      df -h
      Dateisystem Größe Benutzt Verf. Verw% Eingehängt auf
      dev 3,9G 0 3,9G 0% /dev
      run 3,9G 9,6M 3,9G 1% /run
      /dev/nvme0n1p2 225G 152G 62G 72% /
      tmpfs 3,9G 0 3,9G 0% /dev/shm
      tmpfs 3,9G 2,4M 3,9G 1% /etc/pacman.d/gnupg
      tmpfs 3,9G 8,0K 3,9G 1% /tmp
      /dev/nvme0n1p1 300M 296K 300M 1% /boot/efi
      tmpfs 784M 72K 783M 1% /run/user/1000

      free
      gesamt benutzt frei gemns. Puffer/Cache verfügbar
      Speicher: 7,6Gi 2,3Gi 3,2Gi 349Mi 2,1Gi 4,7Gi
      Swap: 8,8Gi 0B 8,8Gi

      hier mal ein paar infos schard

      Und wo fehlen dir nun die 20 GB? Auf /?
      Welche Dateien wurden denn in der Zwischenzeit verändert?
      Wie sieht die Verteilung des Speicherplatzverbrauchs auf / aus?

      # du -hs /*

      Und warum ist /dev/sda1 nirgendwo eingehängt?

      • t_s85 hat auf diesen Beitrag geantwortet.

        Natürlich könnte es auch sein dass im Hintergrund einige Dumps geschrieben wurden (die solltest du mit der Endung "core" finden können). Und wenn es welche geben sollte muss man sich auf Ursachen-Suche begeben.

        Andere Möglichkeit: Große Dateien suchen. Die findest du ggf per baobab oder - auf Kommandozeile - ncdu.
        Das würde allerdings voraussetzen, dass es nicht viele kleine Dateien sind die dir den Platz zuknallen.

        Kläre aber erstmal das was dir die Kollegen gesagt haben.

        VLG
        Stephan

        • t_s85 hat auf diesen Beitrag geantwortet.

          schard
          /dev/sda1 bin ich noch nicht dazu gekommen diese dauerhaft einzubinden bzw stelle ich mich da glaube etwas dumm an.
          /dev/nvme0n1p2 dort wo auch mein home ist da sind heute die 20GB weg gelaufen wo auch immer hin...

          0 /bin
          189M /boot
          4,0K /data
          0 /dev
          18M /etc
          111G /home
          0 /lib
          0 /lib64
          16K /lost+found
          24K /man
          44K /mnt
          6,3G /opt
          du: Zugriff auf '/proc/829464/task/829464/fd/4' nicht möglich: Datei oder Verzeichnis nicht gefunden
          du: Zugriff auf '/proc/829464/task/829464/fdinfo/4' nicht möglich: Datei oder Verzeichnis nicht gefunden
          du: Zugriff auf '/proc/829464/fd/3' nicht möglich: Datei oder Verzeichnis nicht gefunden
          du: Zugriff auf '/proc/829464/fdinfo/3' nicht möglich: Datei oder Verzeichnis nicht gefunden
          0 /proc
          185M /root
          du: Zugriff auf '/run/user/1000/doc' nicht möglich: Keine Berechtigung
          du: Zugriff auf '/run/user/1000/gvfs' nicht möglich: Keine Berechtigung
          9,7M /run
          0 /sbin
          0 /snap
          12K /srv
          0 /sys
          8,0K /tmp
          19G /usr
          17G /var
          4,0K /version

          waldbaer59
          Dumps? wie genau finde ich heraus ob da etwas läuft was nicht laufen soll?

          7 Tage später

          Guten morgen,
          warum wieso auf einmal der speicher kleiner wurde konnte ich nicht finden, jedoch habe ich nach dem gestrigen update auf einmal wieder den vorherigen Speicher an Volumen wieder.

          Bleibt nur noch das Thema mit der Festplatte das sie sich beim booten mit rein hängt, Habe dort auch mit "mount" "mnt" gearbeitet "umformatiert" in der Fstab auch alles so gemacht das es laut einigen Wikis passen müsste.
          Lasse ich "Sda1" mit booten finde ich diese dann gleich gar nicht mehr wieder.
          Ich bekomme auch keine Schreibrechte auf der Festplatte hatte es über "root" ändern wollen jedoch das auch ohne erfolg.

          Ich hoffe das Ihr mir Helfen könnt

          lsblk
          NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
          sda 8:0 0 931,5G 0 disk
          └─sda1 8:1 0 931,5G 0 part /run/media/anonym85/Data
          nvme0n1 259:0 0 238,5G 0 disk
          ├─nvme0n1p1 259:1 0 300M 0 part /boot/efi
          ├─nvme0n1p2 259:2 0 229,4G 0 part /
          └─nvme0n1p3 259:3 0 8,8G 0 part [SWAP]

          insgesamt 8
          drwxr-xr-x 2 root root 4096 18. Apr 17:39 .
          drwxr-xr-x 3 root root 4096 18. Apr 17:39 ..

          Fstab
          # <file system> <mount point> <type> <options> <dump> <pass>
          UUID=285E-C886 /boot/efi vfat umask=0077 0 2
          UUID=1b87a336-ac44-40f0-9fa0-fdc25bb13da5 / ext4 defaults,noatime 0 1
          UUID=d5067c56-54b9-4c52-aaa7-653a403e4f84 swap swap defaults,noatime 0 0
          #UUID=56e3e0be-d350-4b77-8196-98c649d325d4 /mnt/media/anonym85/Data ext4 auto,users 0 0

          das "#" vor der Sda1 habe ich gesetzt damit ich nach dem boot die platte finde. Bis die baustelle fertig ist und es dann ordentlich hinterlassen kann.

          ziegel dort läuft nur mein Conky zur zeit ansonsten ist nicht drin.

          • schard hat auf diesen Beitrag geantwortet.

            t_s85 Conky sollte nicht im Ordner der Systemd Coredumps laufen.
            Und wenn 20 GB verbraucht wurden, können diese nur von /home gefressen worden sein.
            Alle anderen Ordner sind laut deiner Ausgabe < 20 GB.

            • t_s85 hat auf diesen Beitrag geantwortet.

              schard wo währe die beste option es laufen zu lassen?

              ncdu sortiert doch die Verzeichnisse/Dateien nach Größe oder?
              Da lässt sich doch leicht nachvollziehen, wo es immer voller wird.

              17 Tage später