URL: https://www.opennet.me/cgi-bin/openforum/vsluhboard.cgi
Форум: vsluhforumID12
Нить номер: 3079
[ Назад ]

Исходное сообщение
"SQUID для Unlimited - необходимые фильтры"

Отправлено OYY , 02-Апр-05 20:38 
У меня спутниковый канал Unlimited и для всех пользователей в сети тоже анлим. В связи с этим мне не требуется считать трафик но нужно справедливо разделить канал вне зависимости от жадности юзеров. Борьба как вы понимаете прежде всего с менеджерами закачек. Необходимо ограничить количество соединений на один и тот же URL. Пусть себе качают но по одному соединению ... Как это сделать? Желательно по маске ...

Содержание

Сообщения в этом обсуждении
"SQUID для Unlimited - необходимые фильтры"
Отправлено ipmanyak , 04-Апр-05 06:33 
>У меня спутниковый канал Unlimited и для всех пользователей в сети тоже
>анлим. В связи с этим мне не требуется считать трафик но
>нужно справедливо разделить канал вне зависимости от жадности юзеров. Борьба как
>вы понимаете прежде всего с менеджерами закачек. Необходимо ограничить количество соединений
>на один и тот же URL. Пусть себе качают но по
>одному соединению ... Как это сделать? Желательно по маске ...
ограничивать по 1 соедниению не получится, тогда и в браузере будет только 1 соединение, второе окно уже не откроешь !  лучше загаси скорость на закачку до 1кб в сек или даже 500 байт  (delay pool) и  число соединений поставь хотя бы 5  или установи 1 струю конкретно на закачку по типам файлов :
acl 1conn maxconn 1
acl download urlpath_regex -i \.exe$ \.zip$ \.rar$ и т.д.
http_access deny 1conn localnet download



"SQUID для Unlimited - необходимые фильтры"
Отправлено OYY , 04-Апр-05 10:15 
Нет браузер одну страничку грузит по нескольким соединениям и у каждого свой полный URL (картинки там всякие и т.д.) меня интересует именно много соединений на одни и тот же полный URL (многопоточные закачки например). Ограничивать скорость не хочу - пусть все доступное используется но не в ущерб другим ... Вот как это сделать?

"SQUID для Unlimited - необходимые фильтры"
Отправлено cimmerman , 04-Апр-05 11:17 
>Нет браузер одну страничку грузит по нескольким соединениям и у каждого свой
>полный URL (картинки там всякие и т.д.) меня интересует именно много
>соединений на одни и тот же полный URL (многопоточные закачки например).
>Ограничивать скорость не хочу - пусть все доступное используется но не
>в ущерб другим ... Вот как это сделать?


Через хидеры  можеш попробовать
блокировать range запросы  
Требуется поддерка acl req_header rep_header
А блокировать нужно что-то типа
Accept-Ranges: bytes
Content-Range: bytes 9999-99999/99999
Естествено возможность докачки теряется ;o(
незнаю как это будет работать с фтп

не кто не момешает тянуть файлы "пачками" одним потоком каждый

Имхо проще зарезать скорость на закачки


"SQUID для Unlimited - необходимые фильтры"
Отправлено OYY , 04-Апр-05 15:31 
>или установи 1 струю конкретно на закачку по типам файлов
>:
>acl 1conn maxconn 1
>acl download urlpath_regex -i \.exe$ \.zip$ \.rar$ и т.д.
>http_access deny 1conn localnet download


хорошая идея ... сделал ... но не работает :-( чего-то не хватает ... а чего?


"SQUID для Unlimited - необходимые фильтры"
Отправлено ipmanyak , 05-Апр-05 06:39 
>>или установи 1 струю конкретно на закачку по типам файлов
>>:
>>acl 1conn maxconn 1
>>acl download urlpath_regex -i \.exe$ \.zip$ \.rar$ и т.д.
>>http_access deny 1conn localnet download
>
>
>хорошая идея ... сделал ... но не работает :-( чего-то не хватает
>... а чего?

покажи твои аксели, эти аксели должны стоять выше других акселей для юзеров


"SQUID для Unlimited - необходимые фильтры"
Отправлено OYY , 07-Апр-05 21:51 
конкретизирую чуток:
- нужно ограничить соединения на адрес:порт 000.000.000.000:00 до пяти штук или закачки типа *.zip до 1 потока ...
как записать правильно urlpath_regex для выше приведенной маски?