Centale plek XML feeds inladen en weergeven.
Het idee is dat er op de index cat's + sub-cat's worden weergegeven. Aan deze cats hangen URL welke refereert naar het externe XML bestand.
Een database voor categorieën of gewoon een array ?
Code (php)
1
2
3
2
3
$aCat = array('computers', array('muizen', 'toetsenboard'), 'telefoon', 'etc');
$aContent = array(array('cat' => 'computer', 'sub-cat' => 'muizen', 'http://www.pc-webwinkel/rss.xml');
$aContent = array(array('cat' => 'computer', 'sub-cat' => 'muizen', 'http://www.pc-webwinkel/rss.xml');
Ik vind het helemaal niet erg om twee / drie uur per week in de website te stoppen.
Ik denk dat de array's zoals hierboven (categorie (sub-cat) en de aanvoer van XML feeds) multifunctioneel zijn; zo kan ik ook de structuur van de website uiteenzetten, en de categorie -array uitlezen om het menu op te maken.
Een ander probleem wat ik lastig vind is het wegschrijven van de data.
Ik denk dat het gebruikelijk is om een cronjob om het uur een controle uit te laten voeren of er wijzigingen zijn doorgevoerd op de externe websites, zo ja dan alle data binnen halen en verwerken ?
1. Ik wil het direct op de index plaatsen, een bezoeker kan klikken op het item en wordt dan intern doorgestuurd: www.mijnwebsite.nl/computer_muis_zwart.html.
2. Ik wil dat de data niet overschreven wordt maar allemaal bewaard blijft voor SEO (denk ik) ?
3. Voor de weergave op de index moet de data in een DB staan met als datum van vandaag ?
Ik heb diverse RSS projectjes gedownload/ variërend tussen lichtgewicht en zwaardere, waar hebben jullie ervaring mee ?
Relevante data:
- titel
- Omschrijving
- prijs
- afbeelding
- url naar product
Is het duidelijk ???
Bedankt.
Voor productfeeds is RSS ongeschikt. Daarvoor gebruik je XML, CSV en in toenemende mate ook JSON. Kijk bijvoorbeeld maar eens naar de feedspecificatie voor producten van Google en het Product Feed Handbook (PDF) van Beslist.nl.
Ik denk dat de techniek wel goed komt om de data binnen te halen en weg te zetten.
Verder rest er nog wel een vraag: hoe kan ik er GOED voor zorgen dat pagina's worden opgeslagen als HTML, schrijf je gewoon elke keer een stuk content in HTML plus header en footer ? heb je een basis template en vul je deze met variabelen en sla je het bestand op ? deze vraag omtrent sitemapping: ik wil voor me SEO een sitemap waarin ik eigenlijk elke index van de dag opsla, dat mensen de website dus kunnen bezoeken als dat de site een jaar geleden was ?
Bas hooff op 01/08/2016 09:58:56:
Verder rest er nog wel een vraag: hoe kan ik er GOED voor zorgen dat pagina's worden opgeslagen als HTML, schrijf je gewoon elke keer een stuk content in HTML plus header en footer ? heb je een basis template en vul je deze met variabelen en sla je het bestand op ?
Dat kan: dat is dan een full-page cache. Het is echter wel gebruikelijker om webpagina's on the fly te genereren: bijvoorbeeld een productpagina genereer je dan zodra erom gevraagd wordt door een algemeen template voor een productpagina te vullen met de data van een specifiek product uit de database.
Bas hooff op 01/08/2016 09:58:56:
deze vraag omtrent sitemapping: ik wil voor me SEO een sitemap waarin ik eigenlijk elke index van de dag opsla, dat mensen de website dus kunnen bezoeken als dat de site een jaar geleden was ?
Je moet die twee lostrekken:
• De sitemap toont alle actuele webpagina's. Dat kan bijvoorbeeld een sitemap.xml voor zoekmachines zijn.
• Voor redirects en sitestatistieken kan het daarnaast handig zijn om een archief aan te leggen van URL's die je vroeger had. Stel dat je bijvoorbeeld een witte Microsoft-muis hebt op de URL www.example.com/muizen/witte-microsoft-muis. Op het moment dat die muis niet meer leverbaar is, kun je dan verschillende dingen doen, bijvoorbeeld een redirect uitvoeren naar de categorie www.example.com/muizen/. Daarvoor moet je dus weten welke URL's er in omloop zijn geweest.