Нашел вот такую вещь. Работает с livecd. Встроен clonzilla и еще какая-то полезность для разделов. Но вот зараза, не поставишь ее. Или я ошибаюсь? Хочется что-то подобное на харде в отдельном разделе, как восстанавливалку. grub iso не предлагать, скорость маленькая.
клонзиллу поставить можно. И вроде бы даже из стандартных реп. Да и большую часть содержимого можно поставить. Тебе какой функционал из этого нужен? берешь аптитюд в руки и ищешь по репам. Многое доступно.
Хочу backup системы делать.
Похоже grub iso это единственный путь.
Если нужен только бекап - есть замечательные заклинания:
dd
cp
rsync
На мой взгляд, они решают практически все вопросы бекапа. Нафига тянуть какие-то пакеты и париться с ними???
Какой-то не linux way :).
Интересно как корень запакуешь? Отмонтровать надо.
Абсолютно неверное суждение.
Например вот так:
dd if=/dev/sd* bs=8M | pv -c | gzip -c > /Путь/Куда/Складывать.img.gz
Еще походу архивируется чтоб место не жрало.
Это слишком сурово. Таром полущ имхо.
Способов дойти к этой незамысловатой цели много. Каждый имеет свои нюансы. Право выбора - очень важно и неотъемлемо :) Я делаю так как выше написал - он груб еще затягивает. То есть можно на новый диск раскрыть и сразу работать.
Хм, груб можно отдельно запилить. Просто dd гораздо медленнее, и архив весит значительно больше.
Кроме того, раскатка созданного на лету образа равноценна перезагрузке по причине потери питания, что может добавить веселья.
PS Я, конечно, не против свободы выбора.
Вот Вы серьезный и уважаемый специалист … Как-то странно слышать именно от Вас, что архивация файловой системы с проходом по всему дереву быстрее архивации одного массива. Чтоб развеять это маленькое недоразумение я провел эксперимент на своем рабочем ноутбуке. Итак, имеем такую систему:
# df -h
Файл.система Размер Использовано Дост Использовано% Cмонтировано в
/dev/sda4 30G 21G 6,8G 76% /
udev 1,9G 4,0K 1,9G 1% /dev
tmpfs 772M 868K 771M 1% /run
none 5,0M 0 5,0M 0% /run/lock
none 1,9G 1,1M 1,9G 1% /run/shm
none 100M 0 100M 0% /run/user
/dev/sda5 135G 85G 44G 67% /home/Data
Запускаем с контролем времени архивацию файловой системы по любезно предоставленному Вами рецепту:
# time tar --one-file-system -jcf /home/Data/backup.tar.bzip2 /
tar: Удаляется начальный `/' из имен объектов
tar: Удаляются начальные `/' из целей жестких ссылок
tar: /tmp/akonadi-xxx.Z3U6df/akonadiserver.socket: сокет проигнорирован
tar: /tmp/ksocket-kdm/kdeinit4__0: сокет проигнорирован
tar: /tmp/OSL_PIPE_1000_SingleOfficeIPC_90920ec4df75adc620ef1f70d76bba: сокет проигнорирован
tar: /tmp/.ICE-unix/2609: сокет проигнорирован
tar: /tmp/.X11-unix/X0: сокет проигнорирован
tar: /tmp/ksocket-xxx/kio_http_cache_cleaner: сокет проигнорирован
tar: /tmp/ksocket-xxx/klauncherMT2427.slave-socket: сокет проигнорирован
tar: /tmp/ksocket-xxx/kdeinit4__0: сокет проигнорирован
tar: /tmp/pulse-gevtZOlyW4JQ/native: сокет проигнорирован
tar: /tmp/qtsingleapp-homevi-8006-3e8: сокет проигнорирован
tar: /tmp/.vbox-xxx-ipc/ipcd: сокет проигнорирован
tar: /tmp/ssh-0XcAUxCTR8zk/agent.2298: сокет проигнорирован
tar: /tmp/gpg-vAbrCI/S.gpg-agent: сокет проигнорирован
tar: /tmp/.esd-1000/socket: сокет проигнорирован
tar: /var/spool/postfix/dev/log: сокет проигнорирован
real 121m13.267s
user 75m19.766s
sys 2m8.656s
Как видите, несмотря на не очень большой размер раздела (30ГБ), время весьма печальное (честно говоря, когда пошел третий час, еле сдержался чтоб не нажать контрол-Ц)
Что же с размером?
ls -l
-rw-r--r-- 1 root root 7953127545 янв. 24 15:43 backup.tar.bzip2
Теперь архивируем раздел целиком, тоже контролируя время:
# time dd if=/dev/sda4 bs=8M | pv -c | gzip -c > /home/Data/backup.img.gz
29,6GB 0:43:10 [24,6MB/s] [ <=> ]3791+1 записей считано
29,6GB 0:43:10 [11,7MB/s] [ <=> ]
скопировано 31807157760 байт (32 GB), 2590,25 c, 12,3 MB/c
real 43m10.579s
user 24m14.791s
sys 2m40.446s
Как видите — время почти в три раза меньше. Что-же с размером?
# ls -l
-rw-r--r-- 1 root root 9731608809 янв. 24 16:29 backup.img.gz
-rw-r--r-- 1 root root 7953127545 янв. 24 15:43 backup.tar.bzip2
Да, он немного больше, но, возможно это связано с другим архиватором. (брал шаблон из рабочего скрипта и забыл его поменять). Вобщем, размеры сопоставимы.
Что касается раскатки — не скажу что делаю восстановление бэкапа каждый день, но никогда не сталкивался с означенными Вами трудностями.
Что-то долго у вас любезный 30 г пакуется. Зачем тогда такие команды? clonezilla лучше
На вкус и цвет - своя рубашка ближе к телу.
"Долго" - по сравнению с чем? Тут же имеет большое значение какое железо, скорость винта... Уверен, что клозила на _моем_ железе даст сопоставимое время с dd.
Но ставить ее не хочу. Лень.
Кроме того - для бэкапа нужно вручную перегружать комп а это убивает все выигрыши в скорости.
Не спорю, а размер разный от того что архиваторы разные.
Гзип быстрее бзипа, тест не объективен :)
PS Да не специалист я, не специалист.
У меня просто есть неоднократный негативный опыт архивирования пустых только что купленных флешек с помощью dd по полчаса-часу в зависимости от объёма (4-16). А корень гзипится с таром минут за 40.
Это если не указывать блоксайз(bs=??). А если его правильно указать - dd летает.
Хм, не помню.
Время чтения/записи сильно зависит от размера буфера, если количество считываемых данных меньше буфера, то скорость чтения или записи падает.
Все решил, запуск из grub локализованный.
Отправить комментарий