Foutmelding: Fatal error: Maximum execution time of 360 seconds exceeded...
Ik wil een CSV bestand importeren in mijn database. Klaarblijkelijk vind mijn lokale database het op eea manier niet leuk want ik krijg na verloop van tijd onderstaande melding:
Het importeren is geslaagd, 2 queries uitgevoerd.
De volgende structuren zijn aangemaakt of aangepast. Hier kunt u:
•Bekijk de inhoud van een structuur door op de naam te klikken.
•Een instelling wijzigen door op "Opties" te klikken.
•Klik op de "Structuur"-link om de structuur aan te passen.
•bigpicture (Opties)
◦TABLE 4 (Structuur) (Opties)
(IDM_ACT2AUT - IDM_ACT2AUT.csv)
Met daaronder:
Fatal error: Maximum execution time of 360 seconds exceeded in C:\wamp64\apps\phpmyadmin4.8.5\vendor\phpmyadmin\sql-parser\src\UtfString.php on line 178
Call Stack
# Time Memory Function Location
1 0.0096 420888 {main}( ) ...\import.php:0
2 200.2879 44004304 PhpMyAdmin\ParseAnalyze::sqlQuery( ) ...\import.php:697
3 200.2879 44004304 PhpMyAdmin\SqlParser\Utils\Query::getAll( ) ...\ParseAnalyze.php:36
4 200.2879 44004544 PhpMyAdmin\SqlParser\Parser->__construct( ) ...\Query.php:398
5 200.2879 44004792 PhpMyAdmin\SqlParser\Lexer->__construct( ) ...\Parser.php:367
6 200.6100 44005760 PhpMyAdmin\SqlParser\Lexer->lex( ) ...\Lexer.php:182
7 359.9959 170045648 PhpMyAdmin\SqlParser\Lexer->parseWhitespace( ) ...\Lexer.php:228
8 359.9959 170045648 PhpMyAdmin\SqlParser\UtfString->offsetGet( ) ...\Lexer.php:508
9 359.9959 170045648 PhpMyAdmin\SqlParser\UtfString::getCharLength( ) ...\UtfString.php:128
Tabel wordt dus wel aangemaakt maar wordt niet gevuld doordat ik een maximum excution time overschrijd.
het bestand is 16.845kB groot.
Wat kan ik doen zodat ik dit betand wel in kan lezen. Heeft iemand een oplossing hiervoor of hints/tips?
Alles welkom..
en alvast bedankt voor het meedenken.
Dirk
Kijk ook even naar de upload limit.
Gewijzigd op 26/06/2019 21:45:59 door - Ariën -
MET vervijfvoudigd naar 960
en UL opgehoogd van 1M naar 5M
Krijg nu de melding:
Fatal error: Maximum execution time of 360 seconds exceeded in C:\wamp64\apps\phpmyadmin4.8.5\libraries\classes\Import.php on line 802
LET OP... deze melding is toch weer anders dan in mijn oorspronkelijke vraag.. heeft dan wel invloed? Maar niet voldoende? het bestand wat ik wil inlezen heeft zo'n 324000 regels .
Dan is het in luttele seconden gedaan.
HeidiSQL - dat werkt zoveel keer prettiger dan phpMyAdmin.
Of als je toch op een lokale Windows bak zit, installeer Gewijzigd op 27/06/2019 00:03:15 door - Ariën -
Rob Doemaarwat op 26/06/2019 23:47:29:
Of als je toch op een lokale Windows bak zit, installeer HeidiSQL - dat werkt zoveel keer prettiger dan phpMyAdmin.
ben hier een beetje mee aan het stoeien.. kan er nog niet veel over de werking zeggen maar zo te zien maakt hij bij een import geen nieuwe tabel aan. Ook niet optioneel. Moet ik dan eerst een tabel maken met het de velden?
Toevoeging op 27/06/2019 20:46:02:
- Ariën - op 26/06/2019 23:11:10:
Dat zijn wel een hoop regels. Zo te zien wordt je memory niet geraakt door een memory-lek (door bijv. een loop) in je script. Maar kan je dit niet buiten phpMyAdmin om draaien en direct via SSH aan MySQL voeren?
Dan is het in luttele seconden gedaan.
Dan is het in luttele seconden gedaan.
Hoi Ariën,
kan je wat meer toelichten hoe dit dan werkt? zou het niet weten. Ik heb nogal een paar van deze csv's…. en dit is nog niet eens de grootste om te importeren
Dirk Huizinga op 27/06/2019 20:44:58:
ben hier een beetje mee aan het stoeien.. kan er nog niet veel over de werking zeggen maar zo te zien maakt hij bij een import geen nieuwe tabel aan. Ook niet optioneel. Moet ik dan eerst een tabel maken met het de velden?
Dat zou moeten werken, als je tenminste ook je import-SQL erop afstemt dat hij een tabel moet aanmaken. Ik heb hier nooit problemen mee gehad, dus check je sql-file eens.
Quote:
kan je wat meer toelichten hoe dit dan werkt? zou het niet weten. Ik heb nogal een paar van deze csv's…. en dit is nog niet eens de grootste om te importeren
Kijk hier eens:
http://www.mysqltutorial.org/import-csv-file-mysql-table/
Dit kan je prima aan MySQL voeren via SSH. Je moet het wel vooraf even op de server zetten, maar omdat er niks via de PHP of de webserver gaat heb je ook geen tijds- of uploadlimieten. Een database van 50 MB heb ik in no-time hier geïmporteerd.
Met CSV moet het ook geen probleem zijn.
Na afloop kan je alles bijschaven.
Maar SSH wordt vaak op shared-hosting niet ondersteund. Dus vaak moet je wel een eigen server afnemen, maar het feit dat je op de commandline werkt biedt wel een hoop voordelen. Zo kan je bijvoorbeeld ook migratie-scripts maken om bijv. je productie-site naar je ontwikkel/staging omgeving te migreren.
Gewijzigd op 27/06/2019 21:51:37 door - Ariën -
Dirk Huizinga op 26/06/2019 22:56:58:
MET vervijfvoudigd naar 960
Krijg nu de melding:
Fatal error: Maximum execution time of 360 seconds exceeded in
Krijg nu de melding:
Fatal error: Maximum execution time of 360 seconds exceeded in
Dat spoort dan toch niet?
Thomas van den Heuvel op 27/06/2019 21:51:57:
Dat spoort dan toch niet?
Dirk Huizinga op 26/06/2019 22:56:58:
MET vervijfvoudigd naar 960
Krijg nu de melding:
Fatal error: Maximum execution time of 360 seconds exceeded in
Krijg nu de melding:
Fatal error: Maximum execution time of 360 seconds exceeded in
Dat spoort dan toch niet?
Dat er ergens iets scheefs loopt hadden we al geconstateerd ;-)
maar met HeidiSQL kom ik er wel.... schiet op... zelfs csv met meer dan 700000 regels fluitje van een cent
Een ware crime...... :-P
- Ariën - op 27/06/2019 22:02:48:
Daarom bij grote databases en imports, geen phpMyAdmin gebruiken.
Een ware crime...... :-P
Een ware crime...... :-P
weer wat geleerd.... thnx guys