37 lines
1.4 KiB
TeX
37 lines
1.4 KiB
TeX
|
\chapter{Backups}
|
|||
|
|
|||
|
\index{backup}
|
|||
|
|
|||
|
|
|||
|
% ===============================================================
|
|||
|
\section{Geb...}
|
|||
|
|
|||
|
Si tu fais tous tes tgz d'un coup, puis les copie, tous d'un coup, les
|
|||
|
copier juste après les avoir générés permettrait d'éviter de les relire
|
|||
|
(et potentiellement de paralléliser)
|
|||
|
|
|||
|
Si les fichiers sont gros (trop pour tenir en ram), et changent tous
|
|||
|
les jours, scp à la place d'rsync sera vraisemblablement plus performant
|
|||
|
(pas de comparaison de checksum sources / destinations, d'autant plus
|
|||
|
important si c'est sur des répertoires entiers)
|
|||
|
|
|||
|
Je suppose que tu n'utilises pas rsync -z ? Sinon, il ne sert
|
|||
|
vraisemblablement à rien, les fichiers étant déjà compréssés.
|
|||
|
|
|||
|
Si tu gzip plusieurs Go à chaque fois, et a plusieurs cores, pigz
|
|||
|
(https://zlib.net/pigz/) devrait etre plus performant que gzip (tu peux
|
|||
|
le ln -s / dpkg --divert à la place de gzip), le gain est quasi linéaire
|
|||
|
par rapport au nombre de cores.
|
|||
|
|
|||
|
gzip, comme pigz permettent de régler le niveau de compression.
|
|||
|
Généralement diminuer celui-ci raisonnablement impacte peu la taille des
|
|||
|
fichiers générés mais énormément les temps d’exécution (et peut être la
|
|||
|
mémoire).
|
|||
|
|
|||
|
La réactivité de ton système s'en ressent elle si tu lances tes
|
|||
|
scripts à coup de nice -n10 ( / -n15 / -n20 ) sans que cela augmente
|
|||
|
trop les temps de backup ?
|
|||
|
|
|||
|
Quid de juste rsync sur ton serveur et faire les tgz à l'autre bout
|
|||
|
(tu profiteras ainsi pleinement du coté incrémental d'rsync) ?
|