Hi,
was mich zurzeit interessiert (auch dank Mysql Performance Blog), ist das Verarbeiten von großen Datenmengen.
Ich stell mir es so vor:
Man hat 30 Mio Datensätze in einer Tabelle. Und natürlich auch entsprechend viele Abfragen darauf.
Wie geht man mit sowas um?
Selbst wenn ich die Last auf mehrere Server verteile, hat man ja immer noch diese riesige Tabelle. Man kann ja nicht immer nur die Hardware erweitern?
Und aufgrund der Normalisierung kann man die auch nicht mal so eben splitten. Nehmen wir als Beispiel eine Usertabelle mit Postleitzahlen. Da kann ich ja keine user_5 erzeugen wo nur User mit der PLZ 5 drinnen sind.
Ich freue mich mal wieder auf Antworten ;-)
was mich zurzeit interessiert (auch dank Mysql Performance Blog), ist das Verarbeiten von großen Datenmengen.
Ich stell mir es so vor:
Man hat 30 Mio Datensätze in einer Tabelle. Und natürlich auch entsprechend viele Abfragen darauf.
Wie geht man mit sowas um?
Selbst wenn ich die Last auf mehrere Server verteile, hat man ja immer noch diese riesige Tabelle. Man kann ja nicht immer nur die Hardware erweitern?
Und aufgrund der Normalisierung kann man die auch nicht mal so eben splitten. Nehmen wir als Beispiel eine Usertabelle mit Postleitzahlen. Da kann ich ja keine user_5 erzeugen wo nur User mit der PLZ 5 drinnen sind.
Ich freue mich mal wieder auf Antworten ;-)
Kommentar