37 lines
1.4 KiB
TeX
37 lines
1.4 KiB
TeX
\chapter{Backups}
|
||
|
||
\index{backup}
|
||
|
||
|
||
% ===============================================================
|
||
\section{Geb...}
|
||
|
||
Si tu fais tous tes tgz d'un coup, puis les copie, tous d'un coup, les
|
||
copier juste après les avoir générés permettrait d'éviter de les relire
|
||
(et potentiellement de paralléliser)
|
||
|
||
Si les fichiers sont gros (trop pour tenir en ram), et changent tous
|
||
les jours, scp à la place d'rsync sera vraisemblablement plus performant
|
||
(pas de comparaison de checksum sources / destinations, d'autant plus
|
||
important si c'est sur des répertoires entiers)
|
||
|
||
Je suppose que tu n'utilises pas rsync -z ? Sinon, il ne sert
|
||
vraisemblablement à rien, les fichiers étant déjà compréssés.
|
||
|
||
Si tu gzip plusieurs Go à chaque fois, et a plusieurs cores, pigz
|
||
(https://zlib.net/pigz/) devrait etre plus performant que gzip (tu peux
|
||
le ln -s / dpkg --divert à la place de gzip), le gain est quasi linéaire
|
||
par rapport au nombre de cores.
|
||
|
||
gzip, comme pigz permettent de régler le niveau de compression.
|
||
Généralement diminuer celui-ci raisonnablement impacte peu la taille des
|
||
fichiers générés mais énormément les temps d’exécution (et peut être la
|
||
mémoire).
|
||
|
||
La réactivité de ton système s'en ressent elle si tu lances tes
|
||
scripts à coup de nice -n10 ( / -n15 / -n20 ) sans que cela augmente
|
||
trop les temps de backup ?
|
||
|
||
Quid de juste rsync sur ton serveur et faire les tgz à l'autre bout
|
||
(tu profiteras ainsi pleinement du coté incrémental d'rsync) ?
|