clonen / images en hoe lang ?
Ik probeer een systeem te maken waarbij ik mijn centos 8 systeem wil backuppen. Ik lees over de DD commando.
Ik heb een dedicated server, 64G RAM. Ik heb een tweede 4 TB schijf.
Ik heb 900GB aan data dus om de 8 uren backuppen:
Ik lees over de dd command en een image optie.
Maar er zijn wat onduidelijkheden:
1) Hoe lang zal deze backup naarverwachting duren?
2) Wat is de snelste manier?
3) Wat is de stressload op de CPU, RAM ?
Dan zou ik een front-end willen maken, waarbij men bij een admin op een knop drukt en dan via PHP met bijv
En dat het restore proces zal gaan starten. Het systeem zal dan uitgeschakeld moeten worden nietwaar? DUs hoe gebeurd dit?
Ik vraag me af hoe transip bijv dit goed doet. Om de 4 uren een backup. Die binnen 30 min weer terug gezet is.
Wat is de beste manier om dit zo goed mogelijk te maken?
Groet
Daniel
Gewijzigd op 24/10/2020 14:51:20 door Aad B
Ik heb een aparte 4TB schijf, waar de image dan op komt te staan.
Ik heb het nog niet geprobeert, maar ik probeer via directadmin een tar.gz terug te zetten zonder database, en dat duurt dagen ???
Heeft iemand enig idee hoelang zo'n image kan gaan duren?
Virtual houdt in dat je een virtuele server hebt, geen echte ijzeren compu of rack voor jou. Transip kan naar wens virtuele disken toevoegen zoals jouw 4tB. Je kan dat niet eenvoudig nabootsen. Waarom is de door Transip ondersteunde backup niet voldoende voor jou? Kan je ook op commandline werken of moet je alles verplicht met van die onhandige webtooling zoals phpadmin, plesk en andere hulpmiddelen zoals zelfgebouwde php doen? Nogmaals een goed uitgekiend tar script is meestal de juiste oplossing. Tar en tar.gz kan gewoon snel werken, als je tar op commandline test dan zie je wat er gebeurt, wat er voorbij komt maar dagen lang? Lijkt me sterk..
Een database backup maak je bij voorkeur niet door een tar of dd backup te maken van alle MySQL (data)files maar met name alleen een backup van de data, bijvoorbeeld een export. Die kan direct doorsturen naar tar en gz
Gewijzigd op 25/10/2020 10:39:51 door Aad B
MySQL data kun je via mysqldump exporteren en dan naar een externe machine laten wegschrijven, bijvoorbeeld via rsync.
De rest is niet zo heel spannend bij alleen een webservertje, je zou wat kritieke configuratie in een TAR kunnen stoppen en die ook weg rsync-en naar een externe machine.
Als je wat verder de diepte in wil:
Voor de configuratie van je server zelf kan ik je aanraden naar (cloud-) automation tools zoals Ansible of SaltStack te kijken.
Dat is allemaal wel voor de wat gevorderde gebruiker.
Ik ben persoonlijk erg gecharmeerd van Ansible, dat laat je via simpele .yaml bestanden (genaamd "Playbooks" het configuratie-proces uitschrijven. Deze Playbooks worden vervolgens "uitgevoerd" tegen het doelsysteem en garanderen daarmee een consistente configuratie.
Die yaml bestanden kun je dan weer in een Git repository zetten waardoor je een "infrastructure as code" oplossing krijgt.
Configuratie aanpassing aan PHP/Apache/Nginx doen? Playbook iets aanpassen en Ansible draaien. Playbook kan ook meteen de reload van de service regelen, je hoeft in feite nooit meer op je server in te loggen.
Grote voordeel is dat als je server om wat voor reden dan ook corrupt is je enkel het OS opnieuw hoeft te installeren en je Ansible Playbook tegen je server hoeft te draaien en alles staat weer netjes geconfigureerd zoals het hoort.
Je zou zelfs het herstellen van de backup in zo'n script kunnen opnemen om écht alles in 1 klap te doen.