Soso,
was ich mit dem von dir gequoteten Text sagen wollte, war eigentlich nur, dass sich das Problem durch einen neuen Switch nicht wirklich in Luft aufgelöst hat 😉
Dann habe ich auch mal die von dir vorgeschlagenen Tests ausgeführt:
Vom Client auf den Server: ~
85 MB/s
Vom Server auf den Client: ~
35 MB/s
Das ist ja doch ein recht großer Unterschied, aber andererseits ist auch der Via C7 Prozessor recht schwachbrüstig. Ebenso ist die Via Velocity sicherlich nicht die High-End-Server NIC, aber ob diese beiden Faktoren derart entscheidenen Einfluss auf die Performance haben, kann ich nicht sagen.
Was mir aber noch interessantes aufgefallen ist:
Trotz Gigabit Switch erhalte ich am Client folgende mii-tool Ausgabe:
$ mii-tool -v eth0
eth0: negotiated 100baseTx-FD flow-control, link ok
product info: vendor 00:07:32, model 17 rev 2
basic mode: autonegotiation enabled
basic status: autonegotiation complete, link ok
capabilities: 100baseTx-FD 100baseTx-HD 10baseT-FD 10baseT-HD
advertising: 100baseTx-FD 100baseTx-HD 10baseT-FD 10baseT-HD flow-control
link partner: 100baseTx-FD 100baseTx-HD 10baseT-FD 10baseT-HD flow-control
Eigentlich hätte ich hier 1000baseT-FD erwartet, so wie das auch am Server der Fall ist.
Ebenso zeigt mir iperf folgendes an:
$ iperf -t30 -c 192.168.6.20
------------------------------------------------------------
Client connecting to 192.168.6.20, TCP port 5001
TCP window size: 16.0 KByte (default)
------------------------------------------------------------
[ 3] local 192.168.6.5 port 60323 connected with 192.168.6.20 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-30.0 sec 3.29 GBytes 941 Mbits/sec
Hier erstmal angesichts eines mit Pflaster geflickten, mehrere Jahre alten Cat5-Kabels und der
low budget Netzwerkkarten kein übermäßig ernüchterndes Ergebnis.
Aber das hier macht mich ein bisschen stutzig:
$ iperf -t30 -c 192.168.6.20 -d
------------------------------------------------------------
Server listening on TCP port 5001
TCP window size: 85.3 KByte (default)
------------------------------------------------------------
------------------------------------------------------------
Client connecting to 192.168.6.20, TCP port 5001
TCP window size: 16.0 KByte (default)
------------------------------------------------------------
[ 5] local 192.168.6.5 port 60329 connected with 192.168.6.20 port 5001
[ 4] local 192.168.6.5 port 5001 connected with 192.168.6.20 port 52567
[ ID] Interval Transfer Bandwidth
[ 5] 0.0-30.0 sec 1.80 GBytes 515 Mbits/sec
[ ID] Interval Transfer Bandwidth
[ 4] 0.0-30.0 sec 1.24 GBytes 355 Mbits/sec
Bei Full-Duplex hätte ich jetzt eigentlich ~950 MBit/s in beide Richtungen erwartet, so wie 100 Mbit Ethernet auch der Fall ist. Der Switch unterstützt das laut Verpackung auch 😉
Ein bisschen seltsam finde ich auch, dass ich im Vergleich zwischen netcat und SMB/cifs über die Hälfte an Performance verliere. Die Festplatten beider Systeme sind zwar 256 Bit verschlüsselt, aber der Client liest für Performancetests ja aus /dev/zero und der Cryptoprozessor des Epia Boards im Server leistet auch beste Dienste:
dd if=/dev/zero of=foo.dat bs=1M count=1000
1000+0 records in
1000+0 records out
1048576000 bytes (1,0 GB) copied, 12,6015 s, 83,2 MB/s
Allerdings sagt top während eines Transfers über Samba, dass hauptsächlich auf IO gewartet wird (~40-50% wai).
Grüße,
Vrob