Собственно сабж. Есть 4 офиса, в разных страннах и на разных континентах. Необходимо с максимальной скоростью и минимальными задержками раздавать бинарные файлы в эти офисы - 100Mb-2Gb. Так как файлов может быть много - 20/30/50, то необходимо какое то средство/клиент для множественных загрузок. В принципе рассматриваю вариант написания такого клиента. Собственно интересует серверная часть. Хотелось бы получить какой то аналог - http://www.perforce.com/, но только по более вменяймой цене. Ибо 55k$ за 300 лицезий каждый год - как то дорого. И даже без как то :)
Попробуйте BitTorrent Sync http://www.bittorrent.com/sync Это не идеальное решение проблемы, но может подойти. Особенно с учетом распределенности.
> необходимо какое то средство/клиент для множественных загрузок.ownCloud
> Собственно сабж. Есть 4 офиса, в разных страннах и на разных континентах.
> Необходимо с максимальной скоростью и минимальными задержками раздавать бинарные файлы
> в эти офисы - 100Mb-2Gb. Так как файлов может быть много
> - 20/30/50, то необходимо какое то средство/клиент для множественных загрузок.rsync
drbd
lsyncd
HAST
> Попробуйте BitTorrent Sync http://www.bittorrent.com/sync Это не идеальное решение проблемы, но может подойти. Особенно с учетом распределенности.задача все таки не просто разлить контент по серверам, а и отдать этот контент конечному пользователю. Закачивать файлы через торент как то не очень. Плюс не будет версионности.
> ownCloud
он то каким боком тут?
> rsync
> drbd
> lsyncd
> HASTеще раз повторюсь. Задача состоит не в том, чтобы разлить/синхронизировать данные между n серверов. Но при этом удобно для конечного пользователя и быстро отдать их ему. А конечные пользователи - это linux, macos и windows
>> rsync
>> drbd
>> lsyncd
>> HAST
> еще раз повторюсь. Задача состоит не в том, чтобы разлить/синхронизировать данные между
> n серверов. Но при этом удобно для конечного пользователя и быстро
> отдать их ему. А конечные пользователи - это linux, macos и
> windowsТогда на клиенте монтируется серверная папка (NFS или SMB) и оттуда-туда заливаются нужные данные.
Дальше уже синхронизация на серверах идет по 4-м выше приведенным технологиям.Еще для Винды можно SyncToy использовать.
> Собственно сабж. Есть 4 офиса, в разных страннах и на разных континентах.
> Необходимо с максимальной скоростью и минимальными задержками раздавать бинарные файлы
> в эти офисы - 100Mb-2Gb. Так как файлов может быть много
> - 20/30/50, то необходимо какое то средство/клиент для множественных загрузок. В
> принципе рассматриваю вариант написания такого клиента. Собственно интересует серверная
> часть. Хотелось бы получить какой то аналог - http://www.perforce.com/, но только
> по более вменяймой цене. Ибо 55k$ за 300 лицезий каждый год
> - как то дорого. И даже без как то :)http://www.scalescale.com/rolling-your-own-cdn-build-a-3-con.../
>> Собственно сабж. Есть 4 офиса, в разных страннах и на разных континентах.
>> Необходимо с максимальной скоростью и минимальными задержками раздавать бинарные файлы
>> в эти офисы - 100Mb-2Gb. Так как файлов может быть много
>> - 20/30/50, то необходимо какое то средство/клиент для множественных загрузок. В
>> принципе рассматриваю вариант написания такого клиента. Собственно интересует серверная
>> часть. Хотелось бы получить какой то аналог - http://www.perforce.com/, но только
>> по более вменяймой цене. Ибо 55k$ за 300 лицезий каждый год
>> - как то дорого. И даже без как то :)
> http://www.scalescale.com/rolling-your-own-cdn-build-a-3-con.../чуть ближе, а теперь собственно вопрос. Как конечному пользователю забрать все файлы для определенного проекта. Грубо говоря, у каждого проекта есть свой id, на сервере есть папка с соотв id, внутри которой и лежит 100500 бинарных файлов. Не будет же он переходить по ссылкам и закачивать каждый файл в ручную.
> чуть ближе, а теперь собственно вопрос. Как конечному пользователю забрать все файлы
> для определенного проекта. Грубо говоря, у каждого проекта есть свой id,
> на сервере есть папка с соотв id, внутри которой и лежит
> 100500 бинарных файлов. Не будет же он переходить по ссылкам и
> закачивать каждый файл в ручную.Тогда на клиенте использовать Git, svn или другую систему контроля версий.
Тот же Adobe для издательского бизнеса ничего умного не придумал, используется svn.
>> чуть ближе, а теперь собственно вопрос. Как конечному пользователю забрать все файлы
>> для определенного проекта. Грубо говоря, у каждого проекта есть свой id,
>> на сервере есть папка с соотв id, внутри которой и лежит
>> 100500 бинарных файлов. Не будет же он переходить по ссылкам и
>> закачивать каждый файл в ручную.
> Тогда на клиенте использовать Git, svn или другую систему контроля версий.
> Тот же Adobe для издательского бизнеса ничего умного не придумал, используется svn.svn не подходит из-за централизации. А делать свой svn сервер в каждой стране не выход, потом не удобно будет искать проекты. Git не подходит по определению, из-за не возможности скачать нужную папку без закачки всего репозитария. Собственно от системы контроля версий нужно только версионность. Т.е. всякие мерджи, бранчинги и т.п. фичи не нужныв вообще
Привет,Amazon S3 не устривает?
> Привет,
> Amazon S3 не устривает?Если имеется ввиду S3 + CloudFront, то нет. Тесты ничего хорошего не показали.