Сабж -- как это сделать и с помощью чего.
Стоит Фря 4.3 squid 2.4-STABLE1 работает ncsa_authСорри, если повторяюсь.
>Сабж -- как это сделать и с помощью чего.
>Стоит Фря 4.3 squid 2.4-STABLE1 работает ncsa_authПо крону запускай прогу, обрабатывающую лог сквида и считающую, скока каждый пользователь прокачал. Если больше 300 - блокирует пользователя.
>Сабж -- как это сделать и с помощью чего.
>Стоит Фря 4.3 squid 2.4-STABLE1 работает ncsa_auth
>
>Сорри, если повторяюсь.Ну лично я рещил эту проблему следующим образом:
1) Поставил SARG (хороший анализатор логов squida)- http://web.onda.com.br/orso/sarg-1.4.tar.gz
2) В его настройке sarg.conf есть ключик per_user_limit file MB, т.е. написал per_user_limit /usr/local/squid/etc/limit_users 300
3) В squid cделал редирект:
-------------------redirect.pl----------------------
#!/usr/bin/perl
$alert_message="http://myweb/err_mess.html";
$limit_users="/usr/local/squid/etc/limit_users";
$|=1; # force a flush after every print on STDOUT
while (<>)
{
@X = split;
$url = $X[0];
($userip) = split("/",$X[1],2);
open(File, $limit_users);
while(<File>)
{
chomp;
if ($userip eq $_) { $url = $alert_message;}
}
close(File);
print "$url\n";
}4) В cron прописал задание запускать sarg.wekly
5) В cron прописал удалять в начале каждого месяца файл /usr/local/squid/etc/limit_users
6) Потома радовался :)
>4) В cron прописал задание запускать sarg.wekly
>5) В cron прописал удалять в начале каждого месяца файл /usr/local/squid/etc/limit_users
>6) Потома радовался :)а как часто надо запускать sarg.wekly ?
если редко - то юзер успеет сильно перерасходовать свою квоту
и что запретит пользователю слить один файл большого размера и резко превысить квоту?
и как быть, если запрет произошел в процессе активного серфинга по www, когда html-страничка уже полгрузилась, а картинки еще не все? насколько я пробовал, если попытаться вместо картинок подставлять html, то MSIE нередко уходит в бесконечный ступор :(
>>Сабж -- как это сделать и с помощью чего.
>>Стоит Фря 4.3 squid 2.4-STABLE1 работает ncsa_auth
>>
>>Сорри, если повторяюсь.
>
>Ну лично я рещил эту проблему следующим образом:
>1) Поставил SARG (хороший анализатор логов squida)- http://web.onda.com.br/orso/sarg-1.4.tar.gz
>2) В его настройке sarg.conf есть ключик per_user_limit file MB, т.е. написал
>per_user_limit /usr/local/squid/etc/limit_users 300
>3) В squid cделал редирект:
>-------------------redirect.pl----------------------
>#!/usr/bin/perl
>$alert_message="http://myweb/err_mess.html";
>$limit_users="/usr/local/squid/etc/limit_users";
>$|=1; # force a flush after every print on STDOUT
>while (<>)
>{
> @X = split;
> $url = $X[0];
> ($userip) = split("/",$X[1],2);
> open(File, $limit_users);
> while(<File>)
> {
> chomp;
> if ($userip eq $_)
>{ $url = $alert_message;}
> }
> close(File);
> print "$url\n";
>}
>
>4) В cron прописал задание запускать sarg.wekly
>5) В cron прописал удалять в начале каждого месяца файл /usr/local/squid/etc/limit_users
>6) Потома радовался :)
Может я что-то недопонял, но по-моему в редиректор передаеться ТОЛЬКО запрашиваемый урл, а в твоем редиректоре обрбатываються 2 поля - урл и имя пользователя. Откуда взяться имени, я как раз не понимаю.
смотри http://www.tumgasa.ru/cyberos/