>[оверквотинг удален]
>
>АМБУЛА
>заходим на офсайт: http://www.splintered.net/sw/flow-tools/ (его я нашел в google.ru с помощью всего
>одного запроса "flow-tools", самая первая ссылка, САМАЯ ПЕРВАЯ)
>там сразу, в самом верху, видим: http://www.splintered.net/sw/flow-tools/docs/ (docs очень трудно перевести, поэтому
>я привел ссылку), тыкаем ссылку и НЕ ЗАКРЫВАЕМ ОКНО, оно нам
>еше понадобится
>вы пишите у вас проблема с англицким???? ищем вышеописанным способом любой веб
>онлайн переводчик
>переводим два слова РАЗБИТЬ* (split), СТАТИСТИКА (statistics, stat)Э... 74 Гб РАЗБИТЬ!? РАЗБИТЬ исходные данные!?? Накой оно надо? 74 Гб дублирующихся данных. Не ужели так делают!? Если делаюе то кто?
А... Человек каторый стебется над чайниками..:)
>*если изначально настроить коллектор на интервал разбивки в 5 минут**, то слово >"разбивка" можно не переводить (примечание редактора)
Смотрим в корень первый пост "Получаю файл с netflow за 1 час."
>берем пример, и начинаем тупо, по обезьяньи подставлять в него (example) описанные
>в документации варианты параметро. методом тупого перебора (более известного как brutforce)
>даже тупая макака получит вполне работоспособный вариант, который выполнит поставленную задачу
Это и есть ваш совет? или ваш метод? Метод тупого перебора...
>**автор специально оставил в качестве домашнего упражнения эту настройку
Упражнение выполнено на троечку.
>ПОСЛЕАМБУЛА
>спасибо что дочитали мой труд до конца ;-)
Трудно конечно зайти на гугл и егоже переводчик.
Решение пока нанол одно используя flow-report и шаблон
stat-report t1
type summary-counters
output
format ascii
options +totals
path /tmp/output1
stat-definition test
time-series 300
report t1
Получаю файл с просуммированным трафиком по 5 минут.
файл размером 130 мегабайт обрабатывается за 8 секунд.
Для сравнения только разбивка такого файла по 5 минут занимает 56 секунд.