Zware query van +36.000 rows printen
Ik heb ze even bekeken alle 36.000 en probeerde 21.654 te wijzigen maar dat lukt nog niet!
Aad B op 29/09/2015 23:16:19:
Ik heb ze even bekeken alle 36.000 en probeerde 21.654 te wijzigen maar dat lukt nog niet!
Ik snap niet wat je bedoeld?
Het enige wat ik doe is deze json inladen in een datatable.
Nu kan ik met de zoekfunctie direct de juiste klant opzoeken en daar de gegevens van in een formulier laden.
Kortom,
Dit is opgelost :)
Nouja, opgelost... dit soort dingen zijn feitelijk natuurlijk "not done", je download nooit een lijst van meer dan 100 regels, laat staaan 36k. Hiervoor is AJAX uitgevonden, zodat je het zoeken aan de serverkant kunt doen, dat is sneller, flexibeler, en het spaart je bakken met traffic.
Medewerker loopt weg, komt terug met 3 palletwagens met alle frisdrank bij de klant.
Begint vervolgens te spitten tussen de opgeladen flessen en kratten en komt inderdaad (of niet) met een fles cola light in zijn handen te voorschijn.
En weer verliet een tevreden klant het pand.
Of je loopt even naar het juiste rek en komt terug met de 3 varianten cola light die de winkel in huis heeft...
@ Ivo leuke vergelijking, geeft het goed weer....
Ik heb vorige week een plugin geschreven in JS die alleen de eerste 200 records ophaalt.
En meer ophaalt als je naar beneden scrollt. Werkt perfect, en lekker snel.
"Nu kan ik met de zoekfunctie direct de juiste klant opzoeken en daar de gegevens van in een formulier laden."
Om een klant te zoeken, heb je geen 36k aan rows nodig, alleen de resultaten die matchen.
Randy Flujowa op 02/11/2015 11:22:17:
Werkt perfect, en lekker snel.
Je moet alleen even door 36.000/200=180 schermen aan data heen scrollen :-)
En met maar 1 client die gelijktijdig de data opvraagt, beperk je ook de kans op opstoppingen.
Pg Vincent op 02/11/2015 17:00:18:
Je moet alleen even door 36.000/200=180 schermen aan data heen scrollen :-)
Randy Flujowa op 02/11/2015 11:22:17:
Werkt perfect, en lekker snel.
Je moet alleen even door 36.000/200=180 schermen aan data heen scrollen :-)
Nope, de resultaten nadat gefilterd is kan je doorheen scrollen :)
Nadat je browser de filtering gedaan heeft. Beetje jammer voor de gebruikers met een wat trage verbinding (duurt even voor de data er is) en met een wat trage pc, omdat de pc van de bezoeker aan het werk gezet wordt om 90% van de opgehaalde data weer weg te gooien
Ivo P op 02/11/2015 17:13:16:
Nadat je browser de filtering gedaan heeft. Beetje jammer voor de gebruikers met een wat trage verbinding (duurt even voor de data er is) en met een wat trage pc, omdat de pc van de bezoeker aan het werk gezet wordt om 90% van de opgehaalde data weer weg te gooien
Verkeerd verwoord dan. Ik haal er 200 op uit de database (die 200 is variable), dus ik filter ze neit in de browser. Scroll je omlaag wordt er dmv ajax nieuwe records opgehaald. Ik zou niet weten waarom ik 36.000 rows zou ophalen voor wat zoekwerk, terwijl mysql het zoeken ook voor mij kan doen ;)
Verder gebruik ik deze plugin alleen zelf, en ben zeer tevreden over de snelheid.
Als de interesse er is, wil ik hem best delen hier op phphulp na wat finetuning...
Joni Fleischer op 09/06/2015 21:43:38:
Kom ik heel veel tegen bij ontwikkelaars die bij me komen omdat de "database" zo traag is, of ik de database even van de handrem af kan halen. Enorme bakken met data ophalen en processen in loops op de client(en/of webproces). Niet doen! Meteen de juiste selectie in je query maken en de op te halen hoeveelheid in ieder geval beperken. Zie de tips van Randy!Gewijzigd op 02/11/2015 19:02:43 door John D
Mijn loadtime is 0,00001 seconde voor al deze rows te laden.
Vind ik niet echt een "aanslag" op mijn server die gewoon online (lees live) draait..
Het kan vast 100x beter, maar voor mij werkt het nu voorlopig..
Maar, waarom zou je dan liever niet filteren om de juiste client te vinden?
Joni Fleischer op 02/11/2015 20:01:01:
Mijn doel was om heel snel door deze rows te kunnen zoeken naar de juiste client.
Mijn loadtime is 0,00001 seconde voor al deze rows te laden.
Mijn loadtime is 0,00001 seconde voor al deze rows te laden.
Niet jokken, alleen het ophalen van 36k rijen door de database duurt al een halve seconde, en ze omzetten naar JSON zal ook niet gratis zijn.
Misschien, heel misschien, als je heel erg slecht meet, is het daadwerkelijk zoeken in de JSON array te doen in een paar milliseconden maar dat geloof ik ook niet echt. :-)
Quote:
Vind ik niet echt een "aanslag" op mijn server die gewoon online (lees live) draait..
Hij doet nog steeds zo'n 30.000 keer zoveel werk als hij hoeft te doen. Je traffig is sowieso griezelig veel groter dan nodig.
[qoote]
Het kan vast 100x beter, maar voor mij werkt het nu voorlopig..
[/quote]
Het werkt, absoluut, en zolang je het op een hele kleine schaal toepast is er ook niet echt iets op tegen, maar als je dit publiek maakt dan krijg je een hele waslijst aan klachten en een rekening van je provider :)
Dat is dus 0,01 ms. Dat is onwaarschijnlijk rap. Ben wel benieuwd hoe dat dan gemeten kan worden.