Speicherproblem bei Apache/ Download grosser Files

Alles, was den Apache betrifft, kann hier besprochen werden.

Speicherproblem bei Apache/ Download grosser Files

Postby thhko » 14. July 2005 10:59

Hallo,

ich habe folgendes Problem (Apache2, SuSe 9.0):

Der http-Server läuft unter Linux, auf mehreren unter Windows laufenden Rechnern werden Dateien zum Download bereitgestellt (auf der Linux-Kiste gemounted), das klappt auch soweit, aber:

Es scheint, dass für jeden Download, der initiiert wird, das komplette File in den Speicher auf dem Linux-Rechner geladen wird, nach einiger Zeit wird auch das Swap-File zu groß, so daß einige Prozesse gekillt werden (u.a. manchmal auch ssh, sehr ungünstig...)

Ausgabe Linux-Kernel in /var/log/messages:
__alloc_pages: 0-order allocation failed (gfp=0x1d2/0)
VM: killing process httd2-prefork

Welche Lösungen für das Problem ausser den offensichtlichen (Swap-Speicher vergrössern, RAM erweitern, MaxClients runtersetzen) würde es da geben? Gibt es z.B. eine Möglichkeit einzustellen, dass die angeforderten Dateien nicht komplett in den Speicher geladen werden, sondern "direkt" von den Windows-Clients ausgelesen und gesendet werden? Da die Dateien jeweils ca. 100-300 MB groß sind, würde das wohl die beste Lösung sein...

Gruß,
Thomas
thhko
 
Posts: 3
Joined: 14. July 2005 09:56

Nachtrag

Postby thhko » 01. August 2005 13:08

Hallo nochmal,

ich habe jetzt mal den Swap-Space "etwas" erhöht, damit ergibt sich aber das Problem, das der Rechner fast nur noch mit Ein- und Auslagern von Speicher beschäftigt ist... also auch keine richtige Lösung, bei mehr als 10 GB (benutztem) Swap-Space wird das ziemlich langsam...

Falls jemandem dazu eine Lösung/ Hinweise einfallen, wäre ich sehr dankbar. :)

Gruß,
Thomas
thhko
 
Posts: 3
Joined: 14. July 2005 09:56


Return to Apache

Who is online

Users browsing this forum: No registered users and 4 guests