<?xml version="1.0" encoding="koi8-r"?>
<rss version="0.91">
<channel>
    <title>OpenForum RSS: Выпуск распределённого хранилища Ceph 10.2.0</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/107679.html</link>
    <description>Компания Red Hat представила (http://ceph.com/releases/v10-2-0-jewel-released/) релиз проекта Ceph 10.2.0 (http://ceph.com/), предоставляющего инфраструктуру для создания блочных устройств и файловых систем, распределенных по тысячам машин и способных хранить эксабайты данных. Выпуск позиционируется как новый значительный релиз, который послужит основой для формирования новой ветки с длительным циклом поддержки (LTS). Пакеты сформированы для         CentOS 7.x,  Debian Jessie 8.x,  Ubuntu 14.04/16.04 и Fedora 22+.&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;Благодаря отсутствию единой точки отказа и репликации с хранением нескольких экземпляров данных на разных узлах Ceph позволяет добиться очень высокого уровня отказоустойчивости хранилища. При добавлении или удалении новых узлов, массив данных автоматически ребалансируется с учетом изменения конфигурации. Обработку данных и метаданных выполняют различные группы узлов в кластере, примерно как это сделано в Lustre, с тем различием, что обработка производится на уровне пользователя, не требуя како</description>

<item>
    <title>Выпуск распределённого хранилища Ceph 10.2.0 (Аноним)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/107679.html#49</link>
    <pubDate>Mon, 02 May 2016 17:58:28 GMT</pubDate>
    <description>Не &quot;пользовать&quot;, а &quot;использовать&quot;.&lt;br&gt;</description>
</item>

<item>
    <title>Выпуск распределённого хранилища Ceph 10.2.0 (yurapoltora)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/107679.html#48</link>
    <pubDate>Sat, 30 Apr 2016 09:24:41 GMT</pubDate>
    <description>&amp;gt; В oVirt со стабильностью всё плохо, это все таки тестовый продукт. Пару &lt;br&gt;&amp;gt; раз пробовал, то оно со свежим ядром не хочет работать, то &lt;br&gt;&amp;gt; по NFS дико тормозит.&lt;br&gt;&lt;br&gt;Начал пользовать oVirt с релиза 3.5, сейчас все мчит на актуальной версии - 3.6.4, если не ошибаюсь. NFS пользую только для экспорта/импорта виртуальных машин, так что по тормозам не скажу. Но вот с ядром ни разу не испытывал проблем.&lt;br&gt;&lt;br&gt;О том, что продукт совсем безпроблемый я сказать не могу, более того - продукт таки сырой, но при определенной сноровке можно пользовать и вполне успешно. Можно привести аналогию с велосипедом: кто-то вообще не может на нем передвигаться, а кто-то при определенной сноровке может ехать и достаточно быстро.&lt;br&gt;&lt;br&gt;&amp;gt; Плюс к этому, лично я не люблю такие ентерпраз решения которые сами &lt;br&gt;&amp;gt; ставят и настраивают кучу пакетов, сами правят сетевые и прочие конфиги &lt;br&gt;&amp;gt; на машине. В итоге сходу не понятно как это все работает &lt;br&gt;&amp;gt; и как это потом вычистить.&lt;br&gt;&lt;br&gt;1. Продукт заточен на то, что в ОС никто лезть не должен вообще. Контро</description>
</item>

<item>
    <title>Выпуск распределённого хранилища Ceph 10.2.0 (yurapoltora)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/107679.html#47</link>
    <pubDate>Sat, 30 Apr 2016 09:05:26 GMT</pubDate>
    <description>Поделюсь личной практикой по использованию oVirt - две платформы по 7 и 10 серверов, на пару десятков виртуальных машин каждая.&lt;br&gt;&lt;br&gt;Начну с того, что обозначу какие есть в наличии драйверы бэкенда для СХД - это NFS, GlusterFS, iSCSI и с недавних пор через куски OpenStack&apos;а (через Cinder, если быть точнее) умеет Ceph. &lt;br&gt;&lt;br&gt;Я лично отказался от хранения блочных устройств на NFS/GlusterFS: для NFS нужно избыточность городить сторонними средствами, при этом плюсов не дает никаких, GlusterFS же умеет избыточность, но работает в пространстве пользователя и при приличной нагрузке на дисковую подсистему виртуальных машин, жжем процессоры хостов.&lt;br&gt;&lt;br&gt;Прикручивать Ceph к oVirt не доводилось, так что по этому пункту ничего не скажу.&lt;br&gt;&lt;br&gt;Остается только iSCSI. Самый простой путь - это купить готовую полку. Но я понимаю, что тот, кто пользует oVirt денег на полку не имеет.&lt;br&gt;Я пошел по пути создания СХД в ручную - слепил из двух серверов средствами DRBD распределенное блочное устройство, которое экспортирую по протоколу iSCSI </description>
</item>

<item>
    <title>Выпуск распределённого хранилища Ceph 10.2.0 (alex53)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/107679.html#46</link>
    <pubDate>Fri, 29 Apr 2016 18:22:01 GMT</pubDate>
    <description>&lt;br&gt;Два года назад точно не было.&lt;br&gt;Можно пруф на появление?&lt;br&gt;</description>
</item>

<item>
    <title>Выпуск распределённого хранилища Ceph 10.2.0 (Александр)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/107679.html#45</link>
    <pubDate>Fri, 29 Apr 2016 14:10:47 GMT</pubDate>
    <description>Будет посложнее чем с файловой системой, но да, Сеф можно и удобно юзать когда нужно из зоопарка сделать один большой и надежный трэшкэн.&lt;br&gt;</description>
</item>

<item>
    <title>Выпуск распределённого хранилища Ceph 10.2.0 (Аноним)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/107679.html#44</link>
    <pubDate>Wed, 27 Apr 2016 13:26:14 GMT</pubDate>
    <description>&amp;gt; на серверах хранения есть raid контроллеры с кэшем &lt;br&gt;&lt;br&gt;Угу. На которых батарейка через год приказывает долго жить, со всеми вытекающими.&lt;br&gt;&lt;br&gt;</description>
</item>

<item>
    <title>Выпуск распределённого хранилища Ceph 10.2.0 (Аноним)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/107679.html#43</link>
    <pubDate>Wed, 27 Apr 2016 13:24:40 GMT</pubDate>
    <description>Там файлы, тут блоки.&lt;br&gt;</description>
</item>

<item>
    <title>Выпуск распределённого хранилища Ceph 10.2.0 (SunXE)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/107679.html#42</link>
    <pubDate>Tue, 26 Apr 2016 08:49:09 GMT</pubDate>
    <description>В oVirt со стабильностью всё плохо, это все таки тестовый продукт. Пару раз пробовал, то оно со свежим ядром не хочет работать, то по NFS дико тормозит. &lt;br&gt;Плюс к этому, лично я не люблю такие ентерпраз решения которые сами ставят и настраивают кучу пакетов, сами правят сетевые и прочие конфиги на машине. В итоге сходу не понятно как это все работает и как это потом вычистить. Такое ораклоподобное решение, под которое нужно отдельного специалиста воспитывать.&lt;br&gt;Лично я бы смотрел в сторону ProxMox кластер + drbd(или ceph). В последний раз когда я пробовал хранить вируталки в glusterfs, они раз в какое-то время лочились после чего приходилось всех их перегружать. &lt;br&gt;Glusterfs максимум для хранения бэкапов. Хотя сама файловая система очень интересная, она не размазывает файл по куче серверов, а целеком хранит отдельный файл на отдельном сервере. Для восстановления после сбоя и некоторых задач это важно.&lt;br&gt;Если у вас уже образовалась гетерогенная среда, то смотрите в сторону OpenNebula.&lt;br&gt;</description>
</item>

<item>
    <title>Выпуск распределённого хранилища Ceph 10.2.0 (SunXE)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/107679.html#41</link>
    <pubDate>Tue, 26 Apr 2016 08:28:04 GMT</pubDate>
    <description>Это под разные задачи решения.&lt;br&gt;</description>
</item>

</channel>
</rss>
