Об иллюзии сохранности

То, что ссылки в интернете «протухают», давно стало общим местом. Где-то прикрыли бесплатных хостинг, где-то автор не продлил платный, где-то статью просто убрали в архив по разным соображениям...
Печально, что и локальная копия не даёт гарантии сохранности.
Вот, например, одна популярная программа <..>. Ежедневно делается копия файлов, причём старые файлы автоматически не удаляются. Размер архива давно превысил разумный объём. И вот мне понадобилось найти одно изображение. Ссылка есть, «иконка» есть, а самого файла с изображением — нет.
Выходит, надо не только регулярно делать резервные копии, но и регулярно проверять их целостность.
Для баз данных это стандартная процедура, там есть алгоритм, который позволит однозначно сказать «да, вот из этого набора файлов можно восстановить базу и получить доступ ко всем данным, которые в ней хранятся». А вот для всяких разных приложений, даже популярных, такой процедуры нет.
Выходит, надо или писать такую процедуру самостоятельно (ставлю золотой против зубочистки, что ровно ноль человек из ста этим займутся), либо проверять копии вручную (ага, как раз заняться больше нечем). Или всегда держать в голове, что любые данные могут быть потеряны — даже если у тебя под рукой резервная копия.
|
</> |