Есть несколько разделов по 1тб. информации на них от 400гб до 1тб.
для бэкапа на другой сервер используется http://www.opennet.me/dev/fsbackup/
все хорошо, пока размер не превышает 500гб. все передается по фтп.как лучше делать бэкап до 1тб...
>как лучше делать бэкап до 1тб...OS и FS какие?
Вообще бэкапить лучше либо специализированным софтом (NetBackup, Backup Exec например), либо встроенными средствами оси предназначенными для работы именно с той файловой системой, которую надо бэкапить.
Раз у вас большой объем данных для бэкапа, то логично бэкапить инкрементально.
Поглядите на штатную для многих юниксов утилиту dump. Поглядите на star.
Fsbackup не предназначен для копированию настолько больших объемов.
>>как лучше делать бэкап до 1тб...
>
>OS и FS какие?FreeBSD, UFS
>Fsbackup не предназначен для копированию настолько больших объемов.
>>>как лучше делать бэкап до 1тб...
>>OS и FS какие?
>FreeBSD, UFSТогда dump(8) однозначно.
>>>>как лучше делать бэкап до 1тб...
>>>OS и FS какие?
>>FreeBSD, UFS
>
>Тогда dump(8) однозначно.смотрел его в 1-ую очередь, очень долго делает...
пока в тестах поставил старый добрый rsync
>>>FreeBSD, UFS
>>Тогда dump(8) однозначно.
>смотрел его в 1-ую очередь, очень долго делает...
>пока в тестах поставил старый добрый rsyncДык, опциями поиграться надо. Потом через гзип прогнать. А потом уже по сети куда-нить лить. Причем по НФСу наверное быстрее всего будет передаваться...
У меня вот так примерно дамп используется:
dump -${dumplevel}aLu -b 128 -C 16 -f - /dev/${fs} | gzip > /path_to_network_archives/backup_name.dump.gz
Под фрей только дамп/ресторе хоть как-то гарантируют коректное восситановление файловой системы. Все прочее от лукавого, может получится, может нет. Хотя конечно от данных зависит...
>прочее от лукавого, может получится, может нет. Хотя конечно от данных
>зависит...спасибо за ответы....
но rsync полностью устраивает... который не раз уже спасал...
>NetBackup, Backup Exec например)платный софт не рассматривается...
>то логично бэкапить инкрементально.
дак и делаю...
>>NetBackup, Backup Exec например)
>
>платный софт не рассматривается...
>
>>то логично бэкапить инкрементально.
>
>дак и делаю...1 скрипт:
rsync -e ssh -a --delete --force --progress --verbose root@host:/remote/folder /data/localfolder
запускается вручную в скрине :-)
2 скрипт:
#!/bin/bash
this_backup=$(date +%Y-%m-%d-%H:%M)
mkdir -p "/data/$this_backup"
cp -lR /data/localfolder/* "/data/$this_backup"
Делаем резервный снепшот бэкапа на определенную дату.Бэкапится 1.8Т.
---также используется скрипт:
# bontmia (Backup Over Network To Multiple Incremental Archives)
вышеописанные скрипты (1 и 2) - это пара команд, которые реализуют ручное копирование,
bontmia - это то же самое, выполняющееся автоматически.
которые реализуют
>ручное копирование,зачем на сервере руками работать...
все должно автоматом... )))