Servus!
Da ich irgendwie nicht mehr wirklich weiter weiß bzw. mir keine schöne Lösung einfällt, frag ich nun mal hier.
Also ich hab 2 Tabellen:
- gb_cache : 345.000 Datensätze [62 MB]
- gb : 1,08 Mio. Datensätze [190 MB]
Beide Tabellen identisch, d.h. selben Index, selbe Spalten etc.
In jeder Tabelle stehen Gästebucheinträge von Community-Usern, d.h. in
- gb_cache : max. 60 Einträge pro Benutzer
- gb: der Rest, aber max. 340 (wird jede Nacht aufgeräumt)
Bei jeden Eintrag in gb_cache wird überprüft ob mehr als 60 Einträge drin sind, wenn ja dann nach gb verschoben und in gb_cache gelöscht (First in – First out). Und genau hier vermute ich das Problem.
Greifen 250 User gleichzeitig zu kein Problem. Aber werden es dann 300 und mehr fängt die Kiste an zu swappen = alles wird langsam. Meine Vermutung für das RAM zu müllen ist das updaten der Indexe der Tabellen.
-> Also meine Variante ist nicht grade performant und mir fehlt einfach die Idee das ganze anders umzusetzen.
Irgendwelche Vorschläge, Anregungen und Ideen? Mir fällt wie gesagt nichts Gescheites ein.
Noch was zum Server:
- Opteron 146 - 2 GHz
- 1 GB RAM
Zwar auch nicht grade der schnellste, aber ich denke der sollte normal die 300-350 Zugriffe ohne Probleme schaffen. Wäre da nicht das oben beschrieben Problem.
Gruß haddi
Da ich irgendwie nicht mehr wirklich weiter weiß bzw. mir keine schöne Lösung einfällt, frag ich nun mal hier.
Also ich hab 2 Tabellen:
- gb_cache : 345.000 Datensätze [62 MB]
- gb : 1,08 Mio. Datensätze [190 MB]
Beide Tabellen identisch, d.h. selben Index, selbe Spalten etc.
In jeder Tabelle stehen Gästebucheinträge von Community-Usern, d.h. in
- gb_cache : max. 60 Einträge pro Benutzer
- gb: der Rest, aber max. 340 (wird jede Nacht aufgeräumt)
Bei jeden Eintrag in gb_cache wird überprüft ob mehr als 60 Einträge drin sind, wenn ja dann nach gb verschoben und in gb_cache gelöscht (First in – First out). Und genau hier vermute ich das Problem.
Greifen 250 User gleichzeitig zu kein Problem. Aber werden es dann 300 und mehr fängt die Kiste an zu swappen = alles wird langsam. Meine Vermutung für das RAM zu müllen ist das updaten der Indexe der Tabellen.
-> Also meine Variante ist nicht grade performant und mir fehlt einfach die Idee das ganze anders umzusetzen.
Irgendwelche Vorschläge, Anregungen und Ideen? Mir fällt wie gesagt nichts Gescheites ein.
Noch was zum Server:
- Opteron 146 - 2 GHz
- 1 GB RAM
Zwar auch nicht grade der schnellste, aber ich denke der sollte normal die 300-350 Zugriffe ohne Probleme schaffen. Wäre da nicht das oben beschrieben Problem.
Gruß haddi
Kommentar