установлен прозрачный прокси, и для обработки статистики стоит sarg, каждую ноч он запускается и делает собирает статистику. но меня немного неустраивает как он отображает статистику!!! мне нужно что бы я видел число трафика за каждый день, а у меня эти все исла сумируются за все дни , например первый день - 10 мб , второй день 10+10мб , отображает 20, и такая статистика за 5 дней, кто знает где капать???
>установлен прозрачный прокси, и для обработки статистики стоит sarg, каждую ноч он
>запускается и делает собирает статистику. но меня немного неустраивает как он
>отображает статистику!!! мне нужно что бы я видел число трафика за
>каждый день, а у меня эти все исла сумируются за все
>дни , например первый день - 10 мб , второй день
>10+10мб , отображает 20, и такая статистика за 5 дней, кто
>знает где капать???Дык отчёт за период и не затирание предыдущих логов вам поможет. Вообщем man sarg
>>установлен прозрачный прокси, и для обработки статистики стоит sarg, каждую ноч он
>>запускается и делает собирает статистику. но меня немного неустраивает как он
>>отображает статистику!!! мне нужно что бы я видел число трафика за
>>каждый день, а у меня эти все исла сумируются за все
>>дни , например первый день - 10 мб , второй день
>>10+10мб , отображает 20, и такая статистика за 5 дней, кто
>>знает где капать???
>
>Дык отчёт за период и не затирание предыдущих логов вам поможет. Вообщем
>man sarg
спасибо, я так и думал, мог бы вообще не отвечать!!!
>установлен прозрачный прокси, и для обработки статистики стоит sarg, каждую ноч он
>запускается и делает собирает статистику. но меня немного неустраивает как он
>отображает статистику!!! мне нужно что бы я видел число трафика за
>каждый день, а у меня эти все исла сумируются за все
>дни , например первый день - 10 мб , второй день
>10+10мб , отображает 20, и такая статистика за 5 дней, кто
>знает где капать???
сквид ротируйте ежедневно перед выполнением сарга и скармливайте саргу предыдущий лог.
>>установлен прозрачный прокси, и для обработки статистики стоит sarg, каждую ноч он
>>запускается и делает собирает статистику. но меня немного неустраивает как он
>>отображает статистику!!! мне нужно что бы я видел число трафика за
>>каждый день, а у меня эти все исла сумируются за все
>>дни , например первый день - 10 мб , второй день
>>10+10мб , отображает 20, и такая статистика за 5 дней, кто
>>знает где капать???
>сквид ротируйте ежедневно перед выполнением сарга и скармливайте саргу предыдущий лог.
а можно по потробнее
Тут как минимум два варианта:
1. После обработки логов sarg, делать squid - rotate, что обнулит логи.
2. Скармливать sarg нужный период времени для обработки sarg -d dd/mm/yyyy-dd/mm/yyyyВторой вариант ИМХО лучше, а ротацию логов squid производить все равно надо, раз в месяц, раз в год и т.д. и т.п. и др.
>установлен прозрачный прокси, и для обработки статистики стоит sarg, каждую ноч он
>запускается и делает собирает статистику. но меня немного неустраивает как он
>отображает статистику!!! мне нужно что бы я видел число трафика за
>каждый день, а у меня эти все исла сумируются за все
>дни , например первый день - 10 мб , второй день
>10+10мб , отображает 20, и такая статистика за 5 дней, кто
>знает где капать???Cron:
=====
0 5 * * * /usr/local/etc/sarg/sarg.daily > /dev/null 2>&1
0 1 1 * * /usr/local/etc/sarg/sarg.monthly > /dev/null 2>&1*sarg.daily
===========
#!/usr/local/bin/bash
#Get yesterday date
YESTERDAY=$(date -v-1d +%d/%m/%Y)/usr/local/bin/sarg -o /usr/local/apache/htdocs/sarg/day -z -d $YESTERDAY
*sarg.monthly
=============
#!/usr/local/bin/bash
#Get first day of the month
FIRSTDAY=$(date -v1d -v-1m +%d/%m/%Y)#Get last day of the month
LASTDAY=$(date -v-1d +%d/%m/%Y)/usr/local/bin/sarg -o /usr/local/apache/htdocs/sarg -z -d $FIRSTDAY-$LASTDAY
#/usr/local/squid/sbin/squid -k rotate
>>установлен прозрачный прокси, и для обработки статистики стоит sarg, каждую ноч он
>>запускается и делает собирает статистику. но меня немного неустраивает как он
>>отображает статистику!!! мне нужно что бы я видел число трафика за
>>каждый день, а у меня эти все исла сумируются за все
>>дни , например первый день - 10 мб , второй день
>>10+10мб , отображает 20, и такая статистика за 5 дней, кто
>>знает где капать???
>
>Cron:
>=====
>0 5 * * * /usr/local/etc/sarg/sarg.daily > /dev/null 2>&1
>0 1 1 * * /usr/local/etc/sarg/sarg.monthly > /dev/null 2>&1
>
>*sarg.daily
>===========
>#!/usr/local/bin/bash
>#Get yesterday date
>YESTERDAY=$(date -v-1d +%d/%m/%Y)
>
>/usr/local/bin/sarg -o /usr/local/apache/htdocs/sarg/day -z -d $YESTERDAY
>
>*sarg.monthly
>=============
>#!/usr/local/bin/bash
>#Get first day of the month
>FIRSTDAY=$(date -v1d -v-1m +%d/%m/%Y)
>
>#Get last day of the month
>LASTDAY=$(date -v-1d +%d/%m/%Y)
>
>/usr/local/bin/sarg -o /usr/local/apache/htdocs/sarg -z -d $FIRSTDAY-$LASTDAY
>#/usr/local/squid/sbin/squid -k rotate
большое посибо, попробую сделать так!
Для меня тоже когда то было это большой проблемой.
поэтому выкладываю свои конфиги.
Создаю файл 1.sh который содержит следующее
elios# vi /usr/local/etc/sarg/stat/1.sh
#!/usr/local/bin/bash
#Get yesterday date
data=`date "+%d/%m/%Y"`
sarg -d $data-$data
exit 0вписываю в crontab, что бы файл исполнялся каждые 30 минут
elios# vi /etc/crontab
SHELL=/bin/sh
PATH=/etc:/bin:/sbin:/usr/bin:/usr/sbin:/usr/local/bin*/30 * * * * root bash /usr/local/etc/sarg/stat/1.sh
Трафик считается каждые 30 минут.
в конфиге сарга нужно указать что бы статистика перезаписывалась, а не создавалась отдельной страницей в браузере. помоему для этого в sarg.conf нужно указать
overwrite_report yes
lastlog 0после чего я делаю ротацию ("команда squid -k rotate" файл в который сквид складывал лог для подсчета трафика перезаписывается в access.log.0 и сквид начинает заного собирать статистику уже в пустой acces.log) squida раз в месяц первого числа в 0 часов 30 минут.
потом копирую файл access.log.0 в отдельную диру, натравливаю сарг на него, и сохраняю результат уже за весь месяц.И на последок советую все файлы конфига которые сабрался изменять, прежде копировать.
cp файл.conf файл.conf.noedit
во избежании недоразумений.