Берем самый yum-активный из серверов локальной сети, и расшариваем /var/cache/yum по NFS:В /etc/exports добавляем:
/var/cache/yum 192.168.0.212/255.255.255.0(rw)Перезапускаем NFS:
service nfs restartВключаем хранение кэша в /etc/yum.conf как на сервере, так и на клиенте:
В /etc/yum.conf меняем keepcache=0 на keepcache=1:
sed -i 's/keepcache=0/keepcache=1/' /etc/yum.confНа клиентской машине монтируем нужные нам папки, в /etc/fstab добавляем:
# yum common cache
192.168.0.231:/var/cache/yum/base/packages /var/cache/yum/base/packages nfs
192.168.0.231:/var/cache/yum/updates/packages /var/cache/yum/updates/packages nfs
192.168.0.231:/var/cache/yum/addons/packages /var/cache/addons/base/packages nfs
192.168.0.231:/var/cache/yum/centosplus/packages /var/cache/addons/centosplus/packages nfs
192.168.0.231:/var/cache/yum/extras/packages /var/cache/addons/extras/packages nfsИ монтируем их:
mount -aЕсли ему каких-нибудь папок не хватит - создайте:
mkdir -p /var/cache/yum/{base,updates,addons,centosplus,extras}/packagesВсе, пакеты теперь будут скачиваться один раз.
В случае недоступности сервера ничего страшного не произойдет - просто пакет скачается.
URL: http://kirillrst.com
Обсуждается: http://www.opennet.me/tips/info/1834.shtml
А если апдейт запустить на нескольких компах и они будут хотеть один и тот же пакет? (так обычно бывает)
>А если апдейт запустить на нескольких компах и они будут хотеть одинА оно для того и выстраивалось! !)
>и тот же пакет?Или Вы про одновременно хотеть недокачанный пакет?... А вдруг(!) "оно само"?
D-oh! Вот пришли и всё испортили? ?)> (так обычно бывает)
Героически преодолевать созданные себе трудности? :)
>[оверквотинг удален]
>А оно для того и выстраивалось! !)
>
>>и тот же пакет?
>
>Или Вы про одновременно хотеть недокачанный пакет?... А вдруг(!) "оно само"?
>D-oh! Вот пришли и всё испортили? ?)
>
>> (так обычно бывает)
>
>Героически преодолевать созданные себе трудности? :)ну почему же, у меня в локалке 7 компов, и у всех обновление стоит в одно время автоматом
а обновления как правило для каждого компа отдельно не выпускаются и конечно же качать все будут все одновременно один файлк
Raznesi update vo vremeni, delov to.
первый апдейт лочит файл на запись, остальные отваливаются с ошибкой
А что, создать локальный репозитарий уже религия не позволяет и настроить на него остальные сервера?
Один раз слил зеркало и только держать актуальным.
Всё для этого есть в дистрибутиве.
Но нам же нужно более велосипедный велосипед придумать :)))
>А что, создать локальный репозитарий уже религия не позволяет и настроить на
>него остальные сервера?с интернетом по 3 рубля за 1 Мб довольно накладно
>>А что, создать локальный репозитарий уже религия не позволяет и настроить на
>>него остальные сервера?
>
>с интернетом по 3 рубля за 1 Мб довольно накладноТогда уж в любом случае правильнее сделать локальный репозитарий,
а на получаемую папку с апдейтами натравливать штатный createrepo
Тогда ничего не будет мешать обновлениям одновременно всего серверного зоопарка.
+1
остальное мужичье не просекло еще
это удобно, когда интернет медленный. Пока скачаешь весь репозитарий - пройдет мно-о-о-го времени. А так только апдейты один ПК скачал и все...
>это удобно, когда интернет медленный. Пока скачаешь весь репозитарий - пройдет мно-о-о-го
>времени. А так только апдейты один ПК скачал и все...Прочтите внимательно, что я перед этим написал на что сетует народ при использовании NFS.
Еще раз, по шагам (два года так жили):
готовим:
1) с Инета апдейты качает ОДИН комп (настроенный на типовую конфигурацию усеров)
2) его yumcache rsyncom сливается на сервак (в другой каталог\...)
3) этот каталог раздаётся по ftp\nfs всем через настройку СВОЕГО repo и запрет всех остальных
3) натравливаем createrepo на этот каталог, кому хочется, можно еще и группы описатьОбновления:
1) с Инета апдейты качает ВСЁ ТОТ ЖЕ ОДИН комп (настроенный на типовую конфигурацию усеров)
2) его yumcache rsyncom сливается на сервак
3) натравливаем createrepoЕсть альтернативный вариант (имеет свои недостатки) - настроить squid на кэширование файлов с выбранного репозитория. Заркала отключаются, все обновляются только с выбранного репо. Первый скачавший заполняет кэш squid, остальные получают из него же.
А вообще, может, у кого-то руки и дошли (мне оказалось проще выбить безлимитный тариф) написать нормальный yum cacheing proxy.
PS: плагинов к нему - море!
А если все это добро еще для PXE надо , тогда для
Centos/RH и производных есть cobbler .
Зело полезная штука .