Ich hab ein Problem und zwar muss ich sowohl erstmal in DEV lokal, als auch auf einem Shared Webspace die kleine Menge von 1.400.000 Datensätzen reinprügeln.
Ich habe 10 einzelne Dateien, einmal nur als CSV und einmal 10 Dateien mit INSERTs
mysql -u root < Pfad liefert mir nach einer Datei und 3 Minuten: Server has gone away.
PHPMyadmin erlaubt nur das hochladen von 2 MB-Dateien, die Dateien sind alle mindestens 50 MB groß und merke, es muss auch online auf nem shared spaces auch klappen.
ein PHP Script, was die Inserts der Reihe nach durchprügelt wird ca 4000 Jahre dafür brauchen. (40 Min für 10000 Inserts)
Load Data Infile liefert mir auch ein Mysql Server has Gone away, das wird online also noch schlimmer werden.
mysqlimport kann ich online ja nicht nutzen, und er will immer ne Datei, die wie die Tabelle heißt, das wäre dann 500 mb als einzige Datei.
Ferner hab ich dort in der Datei den autoincrement Index nicht drin, woran er sich scheinbar verschluckt
Ich habe 10 einzelne Dateien, einmal nur als CSV und einmal 10 Dateien mit INSERTs
mysql -u root < Pfad liefert mir nach einer Datei und 3 Minuten: Server has gone away.
PHPMyadmin erlaubt nur das hochladen von 2 MB-Dateien, die Dateien sind alle mindestens 50 MB groß und merke, es muss auch online auf nem shared spaces auch klappen.
ein PHP Script, was die Inserts der Reihe nach durchprügelt wird ca 4000 Jahre dafür brauchen. (40 Min für 10000 Inserts)
Load Data Infile liefert mir auch ein Mysql Server has Gone away, das wird online also noch schlimmer werden.
mysqlimport kann ich online ja nicht nutzen, und er will immer ne Datei, die wie die Tabelle heißt, das wäre dann 500 mb als einzige Datei.
Ferner hab ich dort in der Datei den autoincrement Index nicht drin, woran er sich scheinbar verschluckt
Kommentar