Представлен (http://listserv.fnal.gov/scripts/wa.exe?A2=scientific-linux-...) релиз дистрибутива Scientific Linux 7.2 (http://ftp.scientificlinux.org/linux/scientific/7.2/x86_64/r.../), построенного на пакетной базе Red Hat Enterprise Linux 7.2 (https://www.opennet.me/opennews/art.shtml?num=43357) и дополненного средствами, ориентированными на использование в научных учреждениях. Дистрибутив поставляется (http://ftp.scientificlinux.org/linux/scientific/7.2/x86_64/iso/) для архитектуры x86_64, в форме DVD-сборок (4.1 Гб и 7.1 Гб), сокращённого образа для установки по сети (359 Мб), LiveCD (694 Мб) и LiveDVD с окружениями KDE (1.7 Гб) и GNOME (1.5 Гб).
Изменения от RHEL в основной массе сводятся к ребрендингу и чистке привязок к службам Red Hat. Специфичные для научного применения приложения, а также дополнительные драйверы, предлагаются для установки из внешних репозиториев, таких как EPEL (http://fedoraproject.org/wiki/EPEL), elrepo.org (http://elrepo.org/) и atrpms.net (http://atrpms.net/).
Основные особенности (http://ftp.scientificlinux.org/linux/scientific/7.2/x86_64/r.../) Scientific Linux 7.2:
- Файлы с конфигурацией внешних репозиториев (EPEL, ELRepo,
SL-Extras, SL-SoftwareCollections, ZFSonLinux) перемещены в централизованное хранилище, так как данные репозитории не специфичны для конкретных выпусков и могут использоваться с любыми версиями Scientific Linux 7. Для загрузки данных о репозиториях следует выполнить "yum install yum-conf-repos", а затем настроить отдельные репозитории, например, "yum install yum-conf-epel yum-conf-zfsonlinux yum-conf-softwarecollections yum-conf-hc yum-conf-extras yum-conf-elrepo" ;- В состав установочных образов добавлен плагин yum-fastest-mirror, который определяет наиболее быстрое зеркало для установки с загрузкой пакетов по сети;
- Представлена начальная поддержка контекстов (http://ftp.scientificlinux.org/linux/scientific/7/contexts/R...) (Scientific Linux Context Framework), упрощающих создание специализированных сборок дистрибутива и локальных конфигураций с дополнительными приложениями для выполнения специфичных вычислений;- OpenAFS (http://www.openafs.org/), открытая реализация распределенной ФС Andrew File System, обновлена до версии 1.6.16;
- Изменено поведение yum: бэкпортирован патч для "yum fs-vars", при котором переменные yum проверяются в директории /etc/yum/vars даже при выборе альтернативного корневого пути (yum-root).
- Изменены пакеты с IPA, из которых удалены ссылки на связанные с ними внешние сервисы;
- Пакеты curl и mariadb изменены для успешного прохождения unit-тестов;
- Расширена поддержка загрузки на системах с UEFI Secure Boot. Входящий в состав загрузчик подписан собственным ключом дистрибутива, а не типовым ключом, воспринимаемым прошивками, что требует дополнительных ручных манипуляций (http://ftp.scientificlinux.org/linux/scientific/7.2/x86_64/r...) для организации загрузки (добавление ключа в прошивку);
- Поддержка репозиториев ZFS on Linux (https://www.opennet.me/opennews/art.shtml?num=42012), из которых можно установить модуль ядра Linux с реализацией файловой системы ZFS;- Для автоматической установки обновлений задействована система yum-cron, вместо yum-autoupdate. По умолчанию обновления применяются автоматически с последующей отправкой уведомления пользователю. Для изменения поведения на этапе автоматизированной установки, подготовлены пакеты SL_yum-cron_no_automated_apply_updates (запрещает автоматическую установку обновлений) и SL_yum-cron_no_default_excludes (разрешает установку обновлений с ядром);
- Добавлен пакет SL_gdm_no_user_list, отключающий отображение списка пользователей в GDM при необходимости соблюдения более строгой политики безопасности;
- Добавлен пакет SL_enable_serialconsole для настройки консоли, работающей через последовательный порт;
- Добавлен пакет SL_no_colorls, отключающий цветной вывод в ls;
- Внесены изменения в пакеты, в основном связанные с ребрендингом: anaconda, dhcp, grub2, httpd, ipa, kernel, libreport, PackageKit, pesign, plymouth, redhat-rpm-config, shim, yum;- По сравнению с веткой Scientific Linux 6.x из базового состава исключены пакеты alpine, SL_desktop_tweaks, SL_password_for_singleuser, yum-autoupdate, yum-conf-adobe, thunderbird (доступен в репозитории EPEL7).URL: http://listserv.fnal.gov/scripts/wa.exe?A2=scientific-linux-...
Новость: http://www.opennet.me/opennews/art.shtml?num=43827
>ZFSonLinuxЕсли бы не бюрократия в сообществе Линукс уже давно бы пользовались ZFS, pNFS, SMB3. Линукс на расхват бы был.
Ага так и представил, wine-setup.exe))
> Ага так и представил, wine-setup.exe))Жаль, что вы не работали с СХД и ОС Соларис. Релиз FreeBSD 11 можно будет использовать в качестве сторадж-сервера, т.к он будет включать полную поддержку опций ZFS, pNFS и SMB3.
Линукс же в этом плане отдыхает.
Так и вижу этот нарасхват freebsd и solaris, пойду synology расскажу, а то поцаны и не знали.
> Так и вижу этот нарасхват freebsd и solaris, пойду synology расскажу, а
> то поцаны и не знали.Solaris хоть и не нарасхват, но ряд крупных ынтерпрайз проектов по облачному хостингу базируется именно на солярисе, причём выбран именно солярис, а не линукс. Связка ZFS+COMSTAR+Zones+KVM+Crossbow-оказывается, согласно тестам, наилучшей платформой для среды виртуализации по производительности, надёжности и удобству деплоймента.
Синолоджа это кал.
Поддержу, Синолоджи подходит только для бэкапа. Нагрузку держать не можетSolaris+ZFS+Comstar рулит
> Поддержу, Синолоджи подходит только для бэкапа. Нагрузку держать не может
> Solaris+ZFS+Comstar рулит... если есть толковый солярщик, кто настроит. Я, к примеру, напрыгался вдоволь, пока оно стало выдавать как и сколько надо. Но дожал! (хвастаюсь)
>synologyЧто за вата? Я говорю про NetApp и Oracle ZFS Storage.
А FreeBSD может реально потеснить этих вендоров, учитывая, что JBOD корзины сейчас копейки стоят.
А что стоит в NetApp, как не модифицированная BSD ?
> 11 можно будет использовать в качестве сторадж-сервера, т.к он
> будет включать полную поддержку опций ZFS, pNFS и SMB3.
> Линукс же в этом плане отдыхает.Позвольте поинтересоваться -что у Линуксa не так с SMB3 ? Ну кроме того что до фига бета и эксперементал кода , учитываем что многие фичи 3 версии и винда нормально не поддерживает кроме серверных редакций ?
> Позвольте поинтересоваться -что у Линуксa не так с SMB3 ? Ну кроме того что до фига бета и эксперементал кода , учитываем что многие фичи 3 версии и винда нормально не поддерживает кроме серверных редакций ?Ну вообще-то интересует поддержка реально полезных фич, например работы SMB Multichannel - поддерживается даже десктопной виндой, позволяет получить поток в несколько гигабит между единственным клиентом и серверов (а не от сервера до многих клиентов в сумме) по гигабитному bonding'ингу. Что весьма актуально в некоторых условиях, т.к. цены на 10GbE все еще неподъемные для линков на нем до клиентов.
Впрочем, для 10GbE линка это тоже актуально, т.к. без него один TCP-поток кладет обрабатывающее его ядро на клиенте и на сервере, а несколько потоков равномерно распределяют нагрузку.
С такой фичей я бы и linux<-> linux кое-где на SMB перевел, где нужна скорость, а 10GbE внедрить нет возможности, т.к. NFS такого не умеет и обучаться не собирается, а pNFS это уход в несколько иное направление (и не шибко востребованное, как легко заметить из его популярности - на конфигурациях, где можно было бы его внедрить, перешли на технологии другого уровня типа hadoop и ceph. Слишком уж дорого POSIX-совместимость обходится в таких условиях. Но в рамках SMB3, внезапно, получилось это сделать и работает на удивление - я серьезно! - пристойно).
>>работы SMB Multichannel - поддерживается даже десктопной виндой, позволяет получить поток в несколько гигабит между единственным клиентом и серверов (а не от сервера до многих клиентов в сумме) по гигабитному bonding'ингуТо есть ситуация, когда есть Linux сервер с 4х1ГБ интерфейсами и Windows клиент с 4х1Гб интерфейсами, и Вам нужно поток между ними выше чем 1 Гб/с? Месье знает толк в извращениях, похоже...
А просто добавить в каждый сервер по 1 10G карточке и соединить их медным кабелем никак не? По деньгам не весьма дорого, разве что не более 5 м между серверами.>>Впрочем, для 10GbE линка это тоже актуально, т.к. без него один TCP-поток кладет обрабатывающее его ядро на клиенте и на сервере, а несколько потоков равномерно распределяют нагрузку.
Вот и объяснение. Если 10G поток кладет ядро на клиенте и на сервере, то я бы не стал ускорять сеть вообще до решения этой проблемы.
Не знаю, у меня были проблемы именно с bonding'ингом, и с переходом на 10G они благополучно закончились. Я маршрутизировал 2-3 гигабитных внешних потока и маршрутизатор подключал к внутренней сети через 4 гигибитных интерфейса с bonding'ингом.
Кстати, какой-нибудь Microtic Cloud switch за 28 тыс. деревянных имеет 24х1Гб порта и 2х10ГБ SFP+ порта. И, по-моему, сетевая карта 10G с одним SFP+ портом где-то 18 тыс, и медяшка SFP+ 4-5 тыс. за 5 метров. Но больше 8 портов, по-моему, в транк на этом свитче не объединить. Это если нужно 100м между серверами...
> А просто добавить в каждый сервер по 1 10G карточке и соединить их медным кабелем никак не? По деньгам не весьма дорого, разве что не более 5 м между серверами.Вы совсем другой кейз обсуждаете. В стойке с серверами перейти на 10 GbE можно. Когда сервер и клиент не в одной стойке, сеть уже проложена и скорости не хватает - внедрение 10 GbE очень дорого.
> Кстати, какой-нибудь Microtic Cloud switch за 28 тыс. деревянных имеет 24х1Гб порта и 2х10ГБ SFP+ порта
Это не решает проблемы, если бы там был десяток 10GBase-T портов по приемлимой цене - другое дело.
Сейчас (как и пару лет назад) по SFP+ и в рамках стойки 10GbE пустить-то можно, а вот соединять им что-то большее стоит совершенно других (в разы больших) денег. И неочевидно, что разумные по деньгам решения появятся (есть надежда на новые стандарты 2.5G и 5G, но кто знает, исправят ли они ситуацию).
> Вот и объяснение. Если 10G поток кладет ядро на клиенте и на сервере, то я бы не стал ускорять сеть вообще до решения этой проблемы.
Эээ. Еще раз. Ядро кладет тред, обрабатывающий SMB (на клиенте и сервере), обрабатывающий этот поток (на скоростях, приближающимся к 10G). Это *решили* как раз расширением Multichannel, позволяющим одному клиенту работать с сервером через несколько TCP-потоков и разгрузить обработку и там, и там по тредам. Проблема как раз в том, что Samba это не умеет :) Во всяком случае, пока.
> Ну вообще-то интересует поддержка реально полезных фич, например работы SMB Multichannel
> - поддерживается даже десктопной виндой, позволяет получить поток в несколько гигабит
> между единственным клиентом и серверов (а не от сервера до многих
> клиентов в сумме) по гигабитному bonding'ингу. Что весьма актуально в некоторых
> условиях, т.к. цены на 10GbE все еще неподъемные для линков на
> нем до клиентов.C SMB Multichannel как утверждает журнал Системный администратор не все хорошо с безопасностью ,и преодически M$ иногда отключал эту фичу на десктопной винде .Вдобавок у многих сетевых карточек в винде в тонких настройках протоколов тоже по какой-то причине потдержку по умолчанию этой фичи блокируют :-(
>> 11 можно будет использовать в качестве сторадж-сервера, т.к он
>> будет включать полную поддержку опций ZFS, pNFS и SMB3.
>> Линукс же в этом плане отдыхает.
> Позвольте поинтересоваться -что у Линуксa не так с SMB3 ? Ну кроме
> того что до фига бета и эксперементал кода , учитываем что
> многие фичи 3 версии и винда нормально не поддерживает кроме
> серверных редакций ?У Линукса огромные провалы производительности в NFS и SMB. У FreeBSD до 10 версии с NFS и SMB проблемы были, по NFS уступала даже Windows Server 2012.
> У Линукса огромные провалы производительности в NFS и SMB. У FreeBSD до
> 10 версии с NFS и SMB проблемы были, по NFS уступала даже Windows Server 2012.TREPLO
> http://listserv.fnal.gov/scripts/wa.exe?A2=scientific-linux-...
> Scientific Linux
> Linux wa.exe
atrpms умер.
OpenAFS кто-то использует?
> OpenAFS кто-то использует?Кирилл, перелогинтесь.
«CERN» - так устроит?
> «CERN» - так устроит?+ UK GridPP