Тут очередной человек подловил криптора. И вот я думаю как ему сделать "из говна и палок" более менее нормальный бэкап.
Ограничение - всё на одной машине. Интернет есть. Не выключается.
Пока такой алгоритм -
диск для резервного копирования будет подключаться только ночью и только для бэкапа
дожидается пока синхронизируется в облако (отдельное, только для бэкапа - можно для большей стабильности чередовать два разных (или хотя бы две учётки) через день)
синхронизация отключается, программы закрываются, диск отключается
День работы потерять конечно печально, но лучше чем всё. Кто что думает? Какие дополнения? Кто бы ещё что сделал? Или вообще по другому как-нибудь?
Все это будет происходитъ в автоматическом режиме? Как будет реализован контролъ на целостностъ данных? Ну, чтобы случайно все резервные копии после выхов не оказалисъ зашифрованными.
ra0ued писал(а):Все это будет происходитъ в автоматическом режиме? Как будет реализован контролъ на целостностъ данных? Ну, чтобы случайно все резервные копии после выхов не оказалисъ зашифрованными.
Конечно автоматически. Специфика работы в том, что бд семь дней в неделю пользуются. Но да ладно - возьмём праздники новогодние.
Можно делать недельной давности + вчерашнюю копию. На одной из прошлых работ делал - три месячных, четыре недельных, семь ежедневных. Но про выхи хорошее замечание, учту.
Контроль целостности - никак пока. Раз в месяц вручную буду заходить смотреть. Можно конечно какую-нибудь проверку, но не совсем представляю как. Файл тестовый? Положить в мои документы какой-нибудь файл, хэш которого мы знаем и проверять по нему? Если не совпал, то шлём мыло с ошибкой?
В итоге сделал так -
1) Бэкапится в папку и инициализируется отправка на гуглодрайв.
2) Как только файл становится синхронизированным, средствами API переносится в папку на гуглодиске НЕ СИНХРОНИЗИРОВАННУЮ с компьютером. С компьютера файл удаляется.
3) Повторять ежедневно Старое удалять.
В чём плюсы -
1) Гуглодрайв НЕ УСТАНОВЛЕН - написано своё решение на шарпе, которое использует апи, что позволяет обойти кучу проблем (видел крипторы, которые искали целенаправленно софт для облачных файлов и шифровали чтобы на сервер ушло). Есть надежда, что вручную тоже не обнаружат.
2) Полный контроль за выполнением
В итоге пришел к выводу, что в месте ГДЕ делается бэкап не должно быть вообще никакого доступа в место КУДА делается бэкап. Вся отчистка от старого, проверка корректности и прочая должна выполнятся на бэкап сервере.
В этом плане тот же гуглдиск предоставляет неплохие возможности настройки прав для разных пользователей. Но ПИЧАЛЬ - есть три типа прав - запрещено, чтение, запись (ну ещё "админские" типа - они позволяют устанавливать права). То есть место куда делаем бэкап в общем случае должно иметь какую-то логику на тему переноса из одной папки в другую. Иначе умный взломщик может найти наш бэкапер и конфиги к нему, а там мы должны указать токен доступа к гуглодиску, по которому можно посмотреть-скачать-удалить.
В этом плане UrBackup неплох, но у него тоже хватает косяков и проблем как выяснилось.
Ещё момент - для любого бэкап-софта нужно обязательно настраивать логи и отправку ошибок по нескольким каналам (емеил, телеграм, аська, скайп). Что-нибудь да дойдёт.
Конкретный пример - мыло попадало в спам и не было видно, телеграм - ну сами всё знаете, ркн же. Обнаружили, что случился косяк случайно, к счастью до того, как бэкапы потребовались. Почту добавили в исключения, телеграмму прописали прокси. Но всё равно жим-жим был.
Всё бы ничего, пока ваши файлы условно говоря меньше гигабайта. Но когда возникает необходимость в бэкапе (причём ежедневном желательно) около ста гигов, то тут уже начинаешь выёбываться. Пока с rsync`ом разбираюсь. Но как проверять корректность этого всего пока хз
У меня последний месяц прям эпидемия на носимые винты с встроенным USB 3.0. Как поднятъ с них данные даже понятъ не пытаюсъ. На hardmaster.info чо-то стали весъма противоречивые отзывы. Могут месяцами кататъ вату и братъ денъги десятками тысяч, а в итоге сказатъ, что ничего не получилосъ.