Hallo,
ich habe folgendes Problem (Apache2, SuSe 9.0):
Der http-Server läuft unter Linux, auf mehreren unter Windows laufenden Rechnern werden Dateien zum Download bereitgestellt (auf der Linux-Kiste gemounted), das klappt auch soweit, aber:
Es scheint, dass für jeden Download, der initiiert wird, das komplette File in den Speicher auf dem Linux-Rechner geladen wird, nach einiger Zeit wird auch das Swap-File zu groß, so daß einige Prozesse gekillt werden (u.a. manchmal auch ssh, sehr ungünstig...)
Ausgabe Linux-Kernel in /var/log/messages:
__alloc_pages: 0-order allocation failed (gfp=0x1d2/0)
VM: killing process httd2-prefork
Welche Lösungen für das Problem ausser den offensichtlichen (Swap-Speicher vergrössern, RAM erweitern, MaxClients runtersetzen) würde es da geben? Gibt es z.B. eine Möglichkeit einzustellen, dass die angeforderten Dateien nicht komplett in den Speicher geladen werden, sondern "direkt" von den Windows-Clients ausgelesen und gesendet werden? Da die Dateien jeweils ca. 100-300 MB groß sind, würde das wohl die beste Lösung sein...
Gruß,
Thomas