Okay, wenn ich Probeweise 100 Aufrufe mache sieht das schon anders aus...
[pmedia@server ~]$ ab -n 100 https://forum.archlinux.de/
This is ApacheBench, Version 2.3 <$Revision: 655654 $>
Copyright 1996 Adam Twiss, Zeus Technology Ltd, http://www.zeustech.net/
Licensed to The Apache Software Foundation, http://www.apache.org/
Benchmarking forum.archlinux.de (be patient).....done
Server Software: server.archlinux.de
Server Hostname: forum.archlinux.de
Server Port: 443
SSL/TLS Protocol: TLSv1/SSLv3,AES256-SHA,2048,256
Document Path: /index.php
Document Length: 8543 bytes
Concurrency Level: 1
Time taken for tests: 19.852 seconds
Complete requests: 100
Failed requests: 0
Write errors: 0
Total transferred: 870900 bytes
HTML transferred: 854300 bytes
Requests per second: 5.04 [#/sec] (mean)
Time per request: 198.517 [ms] (mean)
Time per request: 198.517 [ms] (mean, across all concurrent requests)
Transfer rate: 42.84 [Kbytes/sec] received
Connection Times (ms)
min mean[+/-sd] median max
Connect: 114 117 2.2 116 130
Processing: 78 81 5.1 80 120
Waiting: 42 45 5.1 43 83
Total: 193 198 5.7 197 236
Percentage of the requests served within a certain time (ms)
50% 197
66% 198
75% 199
80% 200
90% 205
95% 207
98% 221
99% 236
100% 236 (longest request)
Trotzdem empfinde ich es als träge.
Plugins die ich verwende sind grundsätzlich nur Firebug (was für einen marginalen Overhead berüchtigt ist, weshalb es meist deaktiviert ist) und AdBlock Plus, und auf meinem Dev-Rechner gerade mal noch die Web Developer Bar.
Gut, es könnte auch damit zusammenhängen.
Aber überzeugt bin ich deshalb immer noch nicht von der Notwendigkeit von HTTPS.
Aber haha mir fällt gerade noch was ein, ich habe in einem früheren Posting mal glaube ich erwähnt - bzgl. des Wikis - dass man einen Bot schreiben könnte, der Diff-Abbilder zwischen Deutschem und Englischen Wiki erstellen könnte und ein ToDo selbstständig anlegen könnte was noch zu übersetzen ist... dessen Aufwand verzigfacht sich ja ebenfalls. Natürlich werden die meisten wohl für eine solche Aufgabe libcurl einsetzen, aber in meinem Denken ist es so, dass dies unnötiger Overhead ist, und eine direkte HTTP-Implementierung, gerade bei solchen "Operationen" mit vielen Seitenaufrufen hintereinander weg, vorzuziehen ist. Naja. Meine bescheidene Meinung. Werde ich wohl mit leben müssen...
PS: Bitte mach bald was mit den Inputfeldern, es ist grausam T.T