<?xml version="1.0" encoding="koi8-r"?>
<rss version="0.91">
<channel>
    <title>OpenForum RSS: Подвисания mpd/netgraph</title>
    <link>https://opennet.ru/openforum/vsluhforumID1/80189.html</link>
    <description>Здравствуйте! Есть интересная проблема, над которой бьюсь уже приличный срок.&lt;br&gt;Имеется несколько разных серверов доступа на интеловском железе. Работают на терминации pptp и pppoe-туннелей (приблизительно 200-300 туннелей на сервер). Симптомы болезни у всех одинаковые.&lt;br&gt;Приблизительно сутки все работает прекрасно (иногда дольше, иногда меньше). Через некоторое время mpd отказывается принимать входящие соединения. Еще немного спустя (иногда почти сразу) полностью перестает работать все, что связано с сетью. Вплоть до отсутствия отклика на ping 127.0.0.1. ngctl запущенный без ключей при этом виснет намертво.&lt;br&gt;Каких-либо странностей в выводах обычных диагностических комманд не замечаю (netstat с различными ключами и пр.). Если нужен какой-то конкретный вывод -- приведу.&lt;br&gt;В настоящее время на серверах стоит следующее:&lt;br&gt;FreeBSD (6.3-RELEASE-p1/p2)&lt;br&gt;mpd5 (Version 5.1)&lt;br&gt;ipnat (ipf: IP Filter: v4.1.28 (416))&lt;br&gt;Когда подвисает mpd, в логах вижу приблизительно следующее:&lt;br&gt;&lt;br&gt; 94146  May  5 02:14:53 torment mpd: pptp11: s</description>

<item>
    <title>Подвисания mpd/netgraph (lup)</title>
    <link>https://opennet.ru/openforum/vsluhforumID1/80189.html#4</link>
    <pubDate>Thu, 08 May 2008 15:53:04 GMT</pubDate>
    <description>&amp;gt;Похоже, что mbufs заканчиваются. Если в top статус у процессов zoneli, то &lt;br&gt;&amp;gt;это именно оно. Лечится увеличением kern.ipc.nmbclusters, а вообще про это рассказывал &lt;br&gt;&amp;gt;Сысоев на какойто highload конференции (на opennet были ссылки на записи &lt;br&gt;&amp;gt;выступлений). &lt;br&gt;&lt;br&gt;Да, я тоже так по-началу подумал. На хайлоаде был, но Игоря не послушал, к сожалению. Тезисы читал -- вроде все обычно, почти по man tuning.&lt;br&gt;Вот вывод:&lt;br&gt;# netstat -m&lt;br&gt;1018/1037/2055 mbufs in use (current/cache/total)&lt;br&gt;843/575/1418/25600 mbuf clusters in use (current/cache/total/max)&lt;br&gt;843/565 mbuf+clusters out of packet secondary zone in use (current/cache)&lt;br&gt;0/0/0/0 4k (page size) jumbo clusters in use (current/cache/total/max)&lt;br&gt;0/0/0/0 9k jumbo clusters in use (current/cache/total/max)&lt;br&gt;0/0/0/0 16k jumbo clusters in use (current/cache/total/max)&lt;br&gt;1940K/1409K/3349K bytes allocated to network (current/cache/total)&lt;br&gt;0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters)&lt;br&gt;0/0/0 requests for jumbo clusters denied (4k/9k/16k)&lt;br&gt;0/5/6656 sfbufs in use </description>
</item>

<item>
    <title>Подвисания mpd/netgraph (AMDmi3)</title>
    <link>https://opennet.ru/openforum/vsluhforumID1/80189.html#3</link>
    <pubDate>Wed, 07 May 2008 19:44:40 GMT</pubDate>
    <description>&amp;gt; Через некоторое время mpd отказывается принимать входящие соединения. Еще немного спустя&lt;br&gt;&amp;gt; (иногда почти сразу) полностью перестает работать все, что связано с сетью.&lt;br&gt;&amp;gt; ... и т.д. И больше ничего, хотя попытки установления соединения идут &lt;br&gt;&amp;gt;постоянно. &lt;br&gt;&amp;gt;Умирать по killу при этом mpd отказывается, -9 в т.ч. &lt;br&gt;&amp;gt;В чем может быть дело? &lt;br&gt;&lt;br&gt;Похоже, что mbufs заканчиваются. Если в top статус у процессов zoneli, то это именно оно. Лечится увеличением kern.ipc.nmbclusters, а вообще про это рассказывал Сысоев на какойто highload конференции (на opennet были ссылки на записи выступлений).&lt;br&gt;</description>
</item>

<item>
    <title>Подвисания mpd/netgraph (lup)</title>
    <link>https://opennet.ru/openforum/vsluhforumID1/80189.html#2</link>
    <pubDate>Wed, 07 May 2008 16:20:14 GMT</pubDate>
    <description>&amp;gt;Ситуация конечно не точь в точь.... &lt;br&gt;&lt;br&gt;а вот это не похоже?&lt;br&gt;http://www.opennet.ru/openforum/vsluhforumID1/80013.html&lt;br&gt;&lt;br&gt;&amp;gt;для волнения. Заменил все сетевухи на дубовый реалтик - все стало &lt;br&gt;&amp;gt;без проблем. Теперь жду нового железа (от интел) ну и соответственно &lt;br&gt;&amp;gt;новых проблем :) &lt;br&gt;&lt;br&gt;Хм. Интел никогда не подводил(&lt;br&gt;Кстати говоря, аналогичное поведение наблюдалось и с mpd5 5.0 и с FreeBSD 6.2-RELEASE&lt;br&gt;</description>
</item>

<item>
    <title>Подвисания mpd/netgraph (kaats)</title>
    <link>https://opennet.ru/openforum/vsluhforumID1/80189.html#1</link>
    <pubDate>Wed, 07 May 2008 14:35:26 GMT</pubDate>
    <description>Ситуация конечно не точь в точь....&lt;br&gt;Сетевухи от интел, freebcd 6.2.&lt;br&gt;тоже мпд неубивался (и по -9),&lt;br&gt;сеть практичесски не работала - пингую какой-то локальный интерфейс - пинги не проходят. Как только на нем tcpdump запускаю - сразу интерфейс оживает. Процес, который убить нельзя (как потом заметил и mpd и named  и др.) отъедает до 90&#037; ресурсов процессора. Периодичность - примерно сутки. После перезагрузки - как новенький. Из всего криминала - две сетевухи были на одном прерывании - хотя это не повод был для волнения. Заменил все сетевухи на дубовый реалтик - все стало без проблем. Теперь жду нового железа (от интел) ну и соответственно новых проблем :)&lt;br&gt;</description>
</item>

</channel>
</rss>
