un debut assez timide...
This commit is contained in:
36
chap/backups.tex
Normal file
36
chap/backups.tex
Normal file
@@ -0,0 +1,36 @@
|
||||
\chapter{Backups}
|
||||
|
||||
\index{backup}
|
||||
|
||||
|
||||
% ===============================================================
|
||||
\section{Geb...}
|
||||
|
||||
Si tu fais tous tes tgz d'un coup, puis les copie, tous d'un coup, les
|
||||
copier juste après les avoir générés permettrait d'éviter de les relire
|
||||
(et potentiellement de paralléliser)
|
||||
|
||||
Si les fichiers sont gros (trop pour tenir en ram), et changent tous
|
||||
les jours, scp à la place d'rsync sera vraisemblablement plus performant
|
||||
(pas de comparaison de checksum sources / destinations, d'autant plus
|
||||
important si c'est sur des répertoires entiers)
|
||||
|
||||
Je suppose que tu n'utilises pas rsync -z ? Sinon, il ne sert
|
||||
vraisemblablement à rien, les fichiers étant déjà compréssés.
|
||||
|
||||
Si tu gzip plusieurs Go à chaque fois, et a plusieurs cores, pigz
|
||||
(https://zlib.net/pigz/) devrait etre plus performant que gzip (tu peux
|
||||
le ln -s / dpkg --divert à la place de gzip), le gain est quasi linéaire
|
||||
par rapport au nombre de cores.
|
||||
|
||||
gzip, comme pigz permettent de régler le niveau de compression.
|
||||
Généralement diminuer celui-ci raisonnablement impacte peu la taille des
|
||||
fichiers générés mais énormément les temps d’exécution (et peut être la
|
||||
mémoire).
|
||||
|
||||
La réactivité de ton système s'en ressent elle si tu lances tes
|
||||
scripts à coup de nice -n10 ( / -n15 / -n20 ) sans que cela augmente
|
||||
trop les temps de backup ?
|
||||
|
||||
Quid de juste rsync sur ton serveur et faire les tgz à l'autre bout
|
||||
(tu profiteras ainsi pleinement du coté incrémental d'rsync) ?
|
||||
Reference in New Issue
Block a user