convert 2+ unique words to 1
Als je veel identieke woorden/zinnen hebt die je in de database wil wegschrijven, hoe pak je het dan het beste aan ten voordele van snelheid enzo?
Het gaat dan rond 10-20 identieke woorden en dat 100x (hangt af van aantal spelers en controles), dus rond (2)duizend records waaruit ik eigenlijk maar 100 unieke nodig heb.
Het is een log van een gameserver en volgens me checkt hij elke keer of alles klopt en schrjft hij dat telkens weg in die log.
Ik ben die lijnen nog aan het verkorten, en ben van plan om uitendelijk een array in een array over te houden... een letter/cijfer combinatie hoort bij een naam en die kan ik zonder problemen in de database wegschrijven, maar ik wou eens raadplegen of er geen efficientere manier was, om dezelfde lijnen direct met een functie te kunnen verwijderen?
volgens mij bespeur ik een fout datamodel of zie ik dit verkeerd?
Maar ik vroeg me af of het niet beter was om eerst die identieke velden te verwijderen met een functie (indien die bestond) en het dan pas in mijn database plaatsen, dan zou die pagina ook minder dan 10 seconden loaden denk ik?
Of maakt het eigenlijk niet veel uit?
edit:
Even willekeurig 2 identieke lijnen nemen (geen spaties):
(zijn er in totaal 8, neem er maar 2 en verkort die tot zoals ze uiteindelijk zouden moeten zijn)
D1A9F567EBC8CCC22BF14535F7B64488\name\Peter
D1A9F567EBC8CCC22BF14535F7B64488\name\Peter
daarna denk ik dat ik best explode() gebruik, ik heb enkel het gedeelte nodig dat voor en achter '\name\' staat
Kan ik ook er niet aan doen dat die server het telkens wegschrijft in die log ook als de controle in orde is =/
(zijn er in totaal 8, neem er maar 2 en verkort die tot zoals ze uiteindelijk zouden moeten zijn)
D1A9F567EBC8CCC22BF14535F7B64488\name\Peter
D1A9F567EBC8CCC22BF14535F7B64488\name\Peter
daarna denk ik dat ik best explode() gebruik, ik heb enkel het gedeelte nodig dat voor en achter '\name\' staat
Kan ik ook er niet aan doen dat die server het telkens wegschrijft in die log ook als de controle in orde is =/
edit2: zijn er ook een paar identieke die 50+ keer voorkomen
edit3: aangezien ik van plan ben om mijn bestand te legen nadat alles opgeslagen is, en dus dat er bij de volgende handelingen, mijn bestand hooguit 100 kb gaat zijn (70 keer minder dan nu), ga ik gewoon voor UNIQUE constraints lijk Blanche het me laatst nog aangeraden heeft
Gewijzigd op 01/01/1970 01:00:00 door Eduard