Guten Morgen zusammen,
hin und wieder führe ich ein optimize Table auf einer InnoDB Tabelle durch.
Diese Tabelle umfasst ca. 6 Mio. Datensätze, der Speicherverbrauch liegt bei rund 1,2 GB.
Optimize dauert hier jedoch sehr lange (~ 25 Minuten).
Im Percona Forum habe ich gelesen, man könne sich hier mit einem kleinen Trick behelfen, nämlich erst die Indizes entfernen, optimizen, Indizes hinzufügen. Jedoch habe ich auch gelesen, dass MySQL hier ein LOCK Tables setzt.
Gibt es noch andere Möglichkeiten, diesen Vorgang zu beschleunigen und / oder auf ein Lock Tables zu verzichten? Ist letzteres, sofern überhaupt möglich, sinnvoll oder aber gefährlich?
Wenn ich richtg informiert bin ist ein Optimize erforderlich, um nach Löschvorgängen freigewordenen Speicher auch freizugeben. Dies sollte ich eigentlich täglich einmal machen, aber durch die verbundene Downtime der Tabelle mache ich das dann nur alle paar Wochen. Da ich so langsam aber sicher mit immer mehr Daten zu tun habe, suche ich nach einer anderen Lösung.
Ist da jemandem etwas bekannt? Anderer Ansatz? Schnellerer Ansatz?
Bin für jeden Hinweis zu haben ;-)
Danke und Gruß
Boris
hin und wieder führe ich ein optimize Table auf einer InnoDB Tabelle durch.
Diese Tabelle umfasst ca. 6 Mio. Datensätze, der Speicherverbrauch liegt bei rund 1,2 GB.
Optimize dauert hier jedoch sehr lange (~ 25 Minuten).
Im Percona Forum habe ich gelesen, man könne sich hier mit einem kleinen Trick behelfen, nämlich erst die Indizes entfernen, optimizen, Indizes hinzufügen. Jedoch habe ich auch gelesen, dass MySQL hier ein LOCK Tables setzt.
Gibt es noch andere Möglichkeiten, diesen Vorgang zu beschleunigen und / oder auf ein Lock Tables zu verzichten? Ist letzteres, sofern überhaupt möglich, sinnvoll oder aber gefährlich?
Wenn ich richtg informiert bin ist ein Optimize erforderlich, um nach Löschvorgängen freigewordenen Speicher auch freizugeben. Dies sollte ich eigentlich täglich einmal machen, aber durch die verbundene Downtime der Tabelle mache ich das dann nur alle paar Wochen. Da ich so langsam aber sicher mit immer mehr Daten zu tun habe, suche ich nach einer anderen Lösung.
Ist da jemandem etwas bekannt? Anderer Ansatz? Schnellerer Ansatz?
Bin für jeden Hinweis zu haben ;-)
Danke und Gruß
Boris
Kommentar