Мы находимся в процессе сокращения наших каталогов для регенерации некоторого дискового пространства.
'Алгоритм' для сокращения/процесса резервного копирования состоит из списка каталогов и, для каждого из них, ряда правил, например, 'сжатия *.bin', 'перемещают *.blah', 'удаляют *.crap', 'оставляют *.important'; эти правила изменяются от каталога до каталога, но известны. Сжатые и перемещенные файлы хранятся во временной файловой системе, горели на синий луч, протестированный в синем луче, и, наконец, удалили из своих исходных местоположений.
Я делаю это в Python (в основном a walk
оператор со словарем с правилами для каждого расширения в каждой папке).
Вы рекомендуете лучшую методологию для сокращения файловых систем? Как дела это?
Мы работаем на Linux.
У меня была система для отбрасывания в возрасте резервных копий от раздела резервного копирования tarballs. Каждый хост имел свой собственный каталог. В рамках каждого каталога я определил бы файл (например. 00info
) то, что мой секатор считал бы и выполнил бы находку против. Проблема, с которой это встретилось, состояла в том, когда резервные копии, вводящие каталог, не соответствовали шаблонам в файле. Это использовало мусорное ведро/находить, прежде всего, как
foreach pat in $patterns; do find . -type f -name "$pat" -mtime +7 | xargs rm -f ; done
Это не было большим, но это было очень просто. И я нахожу, что, если просто поддержать, у Вас будет время для фактического поддержания его среди нормальных повседневных давлений.
Если Вы программируете в Python, сценарий удара не собирается выдерживать сравнение с тем, к чему Вы способны. Таким образом, важная вещь, которую я предложил бы: не чувствуйте себя виновными в том, что имели что-то, что никто еще не использует: Вы создали решение, которое правильно для Ваших требований, и Вы не можете быть более корректными, чем это.
Существует ли фактическая проблема, которую Ваш сценарий не решает, хотя? Стало трудным поддержать установленный на правило?