Здраствуйте.Прикручиваю к проксику статистику как это описано тут: http://www.uvsw.narod.ru/project/squid2mysql.html
Проблемма стала такая - проксик отваливается при обращении к логу, в /var/log/messages пишется следующее:
Jun 19 10:31:22 su kernel: pid 995 (squid), uid 100: exited on signal 6
Jun 19 10:31:22 su (squid): logfileWrite: /usr/local/squid/logs/access.log: (32) Broken pipe
Jun 19 10:31:22 su squid[929]: Squid Parent: child process 995 exited due to signal 6
Jun 19 10:31:25 su squid[929]: Squid Parent: child process 1009 startedЕсли pipe заменяю на обычный лог, то все работает.
Очень надеюсь на помощь.
>Здраствуйте.
>
>Прикручиваю к проксику статистику как это описано тут: http://www.uvsw.narod.ru/project/squid2mysql.html
>
>Проблемма стала такая - проксик отваливается при обращении к логу, в /var/log/messages
>пишется следующее:
>
>Jun 19 10:31:22 su kernel: pid 995 (squid), uid 100: exited on
>signal 6
>Jun 19 10:31:22 su (squid): logfileWrite: /usr/local/squid/logs/access.log: (32) Broken pipe
>Jun 19 10:31:22 su squid[929]: Squid Parent: child process 995 exited due
>to signal 6
>Jun 19 10:31:25 su squid[929]: Squid Parent: child process 1009 started
>
>Если pipe заменяю на обычный лог, то все работает.
>
>Очень надеюсь на помощь.Сие сообщение значит, что ваш парсер отваливается от трубы по какой-то причине, скорее всего по ошибке, и на другом конце у сквида выскакивает сигнал SIGPIPE. То есть надо искать причину в парсере. Скорее всего, там имеет место переполнение буфера при разборе слишком длинной строки лога.
Немного не по адресу вопрос: а зачем надо было менять лог-файл на трубу? Так основной функционал - проксирование - ставится в прямую зависимость от второстепенного, и тем самым понижается общая надежность системы. Гораздо проще и надежнее периодически распарсивать и обнулять файл лога.
Когда я изобретал свой велосипед - считалку статистики сквида - я поначалу поступил так же, заменив лог-файл на трубу и повесив на него парсер. Однако после того, как осознав, что косяки парсера валят сам сквид, перешел на вариант с разгребанием и обнулением файла лога. Более того, я и от постоянного сидения парсера демоном отказался и стал дергать его из крона.Удачи
PS: кстати, в своем парсере я таки решил проблему с разбором некорректных строк, уже 3 год он пашет и ни разу не свалился.
Если интересно, могу поделиться своим велосипедом.
>Сие сообщение значит, что ваш парсер отваливается от трубы по какой-то причинеХм, в том-то все и дело, что парсер не причем - я его вообще закоментировал на время в squid.sh, т.е. pipe никто не трогает кроме самого squid'а.
>надежнее периодически распарсивать и обнулять файл лога
А если хочется чтобы это было не периодически, а постоянно?
>Если интересно, могу поделиться своим велосипедом.
Буду очень признателен если поделитесь.
>>Сие сообщение значит, что ваш парсер отваливается от трубы по какой-то причине
>
>Хм, в том-то все и дело, что парсер не причем - я
>его вообще закоментировал на время в squid.sh, т.е. pipe никто не
>трогает кроме самого squid'а.
>
"It takes two to tango" - в смысле чтобы писать в трубу, обязательно должен быть тот, кто в из нее читает. Концы трубы с обеих сторон должны быть открыты ( сис. вызов open() ).
Для сквида надо, чтобы читатель был запущен раньше него и висеть на трубе на вызове read(). Иначе вылетит ошибка по сигпайпу, что имеет место в вашем случае, либо, если оба конца открыты, писатель заблокируется, пока читатель не начнет из него читать (точно не помню).>>надежнее периодически распарсивать и обнулять файл лога
>
>А если хочется чтобы это было не периодически, а постоянно?Все зависит от того, какова допустимая задержка обновления информации в базе. Можно парсер дергать из крона хоть каждую минуту, и тогда актуальность данных в базе будет с точностью до минуты.
У меня сейчас парсер вызывается раз в час, этого, в принципе хватает.
>>Если интересно, могу поделиться своим велосипедом.
>
>Буду очень признателен если поделитесь.ТТХ велосипеда:
парсер, вызываемый из крона, пишет в базу на постгресе, далее, посредством SQL-ных скриптов, также вызываемых из крона, информация уплотняется - трафик и время группируются по сайту. Уплотненная информация складывается в долговременный архив daily_logs, подробная информация, накопленная за сутки, убивается.
При помощи sql-ных скриптов генерируются суточные, недельные и месячные отчеты, которые складываются на web-сервер и могут посылаться почтой.
Еще можно в указать friendly_nets, трафик из которых считать не требуется.Все это добро в виде исходника парсера, набора sql-ных, шелловских скриптов и файла кронтаба. Из доков только небольшой readme.
Куда слать?
Спасибо за помощь.>Куда слать?
На мыло.
turbidit[a]gmail.com
>Куда слать?К сожалению пока ничего та и не получаил. turbidit@gmail.com
Я тоже написал чтобы логи SQUID складывались в MySQL используя pipe-канал, кому интересно могут скачать отсюда http://rrh.phpnet.us/