Компания Oracle анонсировала (http://www.oracle.com/us/corporate/press/187136) выход Solaris 11 Express (http://www.oracle.com/technetwork/server-storage/solaris11/d...), первого тестового выпуска будущей платформы Solaris 11, релиз которой ожидается (http://www.opennet.me/opennews/art.shtml?num=27598) во второй половине следующего года.
В новой версии отмечены значительные улучшения во всех ключевых компонентах ОС, начиная с сетевого стека и файловых систем и заканчивая инфраструктурой управление пакетами и расширенной поддержкой многопоточности. Основная работа сосредоточена на масштабируемости, безопасности, поддержке сетевых возможностей и управлении жизненным циклом ПО. Oracle Solaris 11 будет состоять (http://www.oracle.com/us/corporate/press/173478) из более 2700 проектов, в которых будет реализовано более 400 новшеств. Объем кода Solaris 11 оценивается в более чем 20 млн. человеко-часов, затраченных на разработку, и еще 60 млн. часов на тес...URL: http://www.oracle.com/us/corporate/press/187136
Новость: http://www.opennet.me/opennews/art.shtml?num=28664
Какая лицензия будет?
Если верить Oracle, то лицензия GNU.
Вы шутите? Там все под CDDL собрано. А новость отличная!
Вы всё проспали ?
you may use Oracle Solaris 11 Express for __evaluation__
and __development__ without a support contract under the
__Oracle Technical Network perpetual license__
> Если верить Oracle, то лицензия GNU.Где это у оракла такое написано?
Я еще не вникал, но вот из FAQ-a:
14-Can I use Oracle Solaris 11 Express without a support
contract?
Yes, you may use Oracle Solaris 11 Express for evaluation
and development without a support contract under the Oracle
Technical Network perpetual license.
Похоже легально пользовать даже дома под NAS-ик нельзя будет :(
Хмм. Собственно вот эта лицензия
http://www.oracle.com/technetwork/licenses/solaris-cluster-e...LICENSE RIGHTS
Except for any included software package or file that is licensed to you by Oracle under different license terms, we grant you a perpetual (unless terminated as provided in this agreement), nonexclusive, nontransferable, limited License to use the Programs only for the purpose of developing, testing, prototyping and demonstrating your applications, and not for any other purpose.All rights not expressly granted above are hereby reserved. If you want to use the Programs for any purpose other than as permitted under this agreement, including but not limited to distribution of the Programs or any use of the Programs for your internal business purposes (other than developing, testing, prototyping and demonstrating your applications) or for any commercial production purposes, you must obtain a valid license permitting such use. We may audit your use of the Programs.
Ну вообще я так думаю что *дома* для NAS нормально - типа, testing/prototyping applications, изучаю, как она подходит для применения. Главное не извлекать из этого денег и не использовать в бизнесе.
Но две вещи неприятны. "We may audit your use of the Programs" - опаньки. Т.е. любого вида закладки, проверяющие, что же мы делаем с операционкой, явно разрешены и задекларированы. И еще хуже любимое оракловое "You may not: disclose results of any benchmark test results related to the Programs without our prior consent.". Как на БД оракл. Результатов никаких бенчмарков ОС (бедный фороникс!), zfs или других компонент публиковать нельзя. Для себя - сколько угодно, а хотите в веб выложить - обратитесь к ораклу, они посмотрят и скажут, понравилось ли им и можно показать результат или же нет. В принципе, понятно для чего это было сделано для БД, но закладывать такое в лицензию на ОС, да еще так свободно распространяемую.. прямо пинок в лицо любому, кто возьмет ее на "потестить".
Всё-таки "testing, prototyping" не равно "некоммерческое использование".
Я думаю пользовать дома нельзя. Можно конечно забить, но думаю лучше подождать OpenIndiana Stable, которая планируется в 1 квартале 2011.
А если я это буду тестировать по принципу - пользуюсь пока не зависнет?
> "We may audit your use of the Programs" - опаньки. Т.е. любого вида закладки, проверяющие, что же мы делаем с операционкой, явно разрешены и задекларированы.Соглашения RedHat'а читал? Там то же самое: http://www.redhat.com/licenses/Enterprise_Agr_EMEA.pdf
> И еще хуже любимое оракловое "You may not: disclose results of any benchmark test results related to the Programs without our prior consent.". Как на БД оракл.
Дык это многие практикуют, так что оракл тут не одинок. Я бы сказал, это норма среди жирных вендоров софта и/или железа.
>> "We may audit your use of the Programs" - опаньки. Т.е. любого вида закладки, проверяющие, что же мы делаем с операционкой, явно разрешены и задекларированы.
> Соглашения RedHat'а читал? Там то же самое: http://www.redhat.com/licenses/Enterprise_Agr_EMEA.pdfЦелевая аудитория RHEL примерно такая же, как целевая аудитория Solaris.
Но для SolarisExpress лицензия отталкивающая, я бы сказал.
Похоже, путь OpenSUSE и Fedora Oracl-у решительно не нравится.
>> "We may audit your use of the Programs" - опаньки. Т.е. любого вида закладки, проверяющие, что же мы делаем с операционкой, явно разрешены и задекларированы.
> Соглашения RedHat'а читал? Там то же самое: http://www.redhat.com/licenses/Enterprise_Agr_EMEA.pdfНе нашел такого в соглашении редхат. Процитируйте "то же самое".
См. раздел №5 "Reporting and Inspection"
в ЮСА принят закон обязывающий производителей ОС делать бэкдоры
> Programs or any use of the Programs for your internal business
> purposes (other than developing, testing, prototyping and
> demonstrating your applications)
> or for any commercial production purposes, you must obtain a valid
> license permitting such use. We may audit your use of the
> Programs.Мда, печально. Игры в OpenSource похоже окончательно закончились :-(
С другой стороны, если я ничего не путаю, самая базовая конфигурация
Solaris-10 без поддержки стоит 20$. Кому нужна rock solid OС "для дома для семьи",
вполне в состоянии ее купить, даже студент. И для production и для testing
and development. Возможно, столько же будет стоит и базовая конфигурация Solaris-11.При таких вот делах, стоит глянуть на Nexenta. У них есть Community версия.
Ну а скучающим девелоперам -- IllumOS.
> С другой стороны, если я ничего не путаю, самая базовая конфигурация
> Solaris-10 без поддержки стоит 20$. Кому нужна rock solid OС "для дома
> для семьи",Если бы. Нету у них такой. Это называется Premier Support и стоит >$700 за двухядерную систему. Если железо не от оракла, то нужно сначала сертифицировать(запустить программу-тест), иначе поддержку не продадут.
> собственная реализация протокола CIFS;Да ладно гнать, из Линуха выдрали.
>> собственная реализация протокола CIFS;
> Да ладно гнать, из Линуха выдрали.то-то в линухе Самба используется..
>>> собственная реализация протокола CIFS;
>> Да ладно гнать, из Линуха выдрали.
> то-то в линухе Самба используется..Я уж не знаю что и ответить.
"- Дорогая, у тебя на ноутбуке IP адрес настроен?
- Да любимый, и ICQ тоже есть"
кстати, кто объяснит разницу между линуксовым ядерным CIFS и простым samba-пакетом. заделитесь ссылочкой, если не сложно.
> кстати, кто объяснит разницу между линуксовым ядерным CIFS и простым samba-пакетом. заделитесь
> ссылочкой, если не сложно.Ну как бы они не должны отличаться, по этому и назвали протокол - заранее обговорённый
набор правил и условий. Иначе коннекта не будет. То есть, на сетевом уровне они равны,
разница есть на прикладном уровне, типа авторизация, права, атрибуты, статистика и т.д.Чуть подробнее тут: http://pserver.samba.org/samba/ftp/cifs-cvs/linux-cifs-clien... (PDF 145k )
Differences between cifs and the older Linux client smbfs
In versions of the Linux kernel prior to 2.6, an older implementation of an SMB/CIFS client, smbfs was
used which will be deprecated starting in Linux kernel 2.6.20. The newer cifs virtual filesystem
introduced various new features, but also introduced some changes which can be confusing for former
smbfs users. Some commonly encountered differences include:1) configuration
Unlike smbfs and smbclient, configuration for the cifs vfs does not depend on smb.conf. CIFS
configuration is done using /proc (modifying pseudofiles in /proc/fs/cifs) and by specifying module
install parameters (module options passed to /sbin/insmod or modprobe). In addition the cifs vfs does
not use the Samba utilities smbmnt or smbmount as smbfs did. Most of the cifs vfs is implemented in
kernel, although cifs vfs has a small userspace mount helper (mount.cifs)2) mount syntax:
mounting to older servers (those prior to1997) may require specifying two additional fields beyond
those which smbfs required:
a) The server's netbios (RFC1001) name AND the server's tcp (or ip ) address. CIFS does not
assume, as smbfs did, that the tcp name and the netbios name of the server are the same. The netbios
name of the server is specified by passing the mount option “servern=SERVERNAME” and is not
assumed to be necessarily the same as the tcp name of the server (also note that the netbios name is
usually capitalized). Both tcp/ip name and netbios name have to be specified for mounts for most old
lanman servers. For example:
mount -t cifs //tcp-name-of-server/sharename /mnt -o user=username,sec=lanman,servern=SERVERNAME
b) A security option allowing weaker password hashes to be used. Specifying “sec=lanman” in the
mount options allows the client to send weaker lanman hashes to the server. Older servers such as
Windows 98 require this.
Mounting to more current servers with stronger authentication (ntlmv2) typically requires an additional
mount option (unless the security flags are changed in /proc/fs/cifs) “sec=ntlmv2”3) Default UID/GID/mode for remote files
For mounts to servers which can report uids and gids (the number representing the user and group
names) such as Samba server, it may be necessary to disable the unix extensions if uids and gids do
not match between cifs client and Samba server. For servers which do not support Unix modes directly
(e.g. Most versions of Windows), the default mode for files differs from that reported by smbfs. The
default mode can be overridden by mount options “file_mode” and “dir_mode”for these server types.
> кстати, кто объяснит разницу между линуксовым ядерным CIFS и простым
> samba-пакетом.чуть не забыл, в ядре только клиент :)
> чуть не забыл, в ядре только клиент :)Наконец-то до тебя доперло. В соляре в ядре не только клиент, но и сервер, что я, собственно, и имел ввиду. Ну а из линукса или нет там клиент - это ты можешь легко проверить, посмотрев на http://src.opensolaris.org
>> чуть не забыл, в ядре только клиент :)
> Наконец-то до тебя доперло. В соляре в ядре не только клиент, но и сервер,Очень интересно, как же ядро рулит учётные записи, расширенные атрибуты, да и просто, сохраняет файлы??? :)
> Очень интересно, как же ядро рулит учётные записи, расширенные атрибуты, да и просто, сохраняет файлы??? :)Ну для NFS'а же оно как-то рулит.. Чем CIFS принципиально отличается? Или ты хочешь сказать, что в линуксе и NFS в юзерленде работает?
вау! не знал что в ядро соляры уже и мэпинг uid - sid встроили (типа так http://www.samba.org/samba/docs/man/Samba-HOWTO-Collection/i... )
а заодно и лдап с цербером и пр.да демон это просто. запускается так:
svcadm enable -r smb/server
понадобился саням для вот таких плюшек:
zfs set sharesmb=name=cifs0 tank/cifs0
вот отличная инфа - http://wikis.sun.com/pages/viewpage.action?pageId=173213266
и в частности это - http://wiki.genunix.org/wiki/index.php/Getting_Started_With_...
Install the Solaris CIFS service packages.
# pkgadd -d mount-point/Solaris_11/Product SUNWsmbskr SUNWsmbsr SUNWsmbsu
>> Очень интересно, как же ядро рулит учётные записи, расширенные атрибуты, да и просто, сохраняет файлы??? :)
> Ну для NFS'а же оно как-то рулит.. Чем CIFS принципиально отличается? Или
> ты хочешь сказать, что в линуксе и NFS в юзерленде работает?nfsd
>>> Очень интересно, как же ядро рулит учётные записи, расширенные атрибуты, да и просто, сохраняет файлы??? :)
>> Ну для NFS'а же оно как-то рулит.. Чем CIFS принципиально отличается? Или
>> ты хочешь сказать, что в линуксе и NFS в юзерленде работает?
> nfsd
> http://nfs.sourceforge.net/nfs-howto/ar01s03.htmlНе хочешь ли ты сказать, что поддержку NFS из ядра выкинули? Или что ты, имея поддержку NFS в ядре, предпочитаешь использовать юзерлендовый NFSD?
речь идет только о том, что часть функциональности перенесли из юзер-спейса в кернел-спейс.
это помогает интегрироваться с другими плюшками ядра, не более.
к примеру поддержка ррр тоже есть в ядре, но запускать в юзерспейсе pppd таки приходится.
поэтому "сервер в ядре" - это технически не верно.
зато верно для маркетинга.
> речь идет только о том, что часть функциональности перенесли из юзер-спейса в
> кернел-спейс.Некислую такую часть функциональности, заметим.
> это помогает интегрироваться с другими плюшками ядра, не более.
Не только. Это помогает получать лучшую производительность, ибо нет необходимости прыгать туда-сюда между ядром и юзерлендом.
> поэтому "сервер в ядре" - это технически не верно.
> зато верно для маркетинга.Может стоит все-таки хотя бы одним глазом взглянуть на солярисную реализацию, прежде чем делать такие утверждения?
ха! а прыгать приходится все равно. это таки сетевая (со всеми вытекающими плюшками) фс, да еще и не родная, где уиды надо мапировать с сидами и т.д.
не говоря об ограничении самого протокола.
а вообще см. ниже уже ответил (по вашим исходникам).
демон в юзерспейсе. и все данные идут через него, через юзерспейс.
помогу, вот тут собсно ответ
http://www.opennet.me/openforum/vsluhforumID3/72542.html#57
> демон в юзерспейсе. и все данные идут через него, через юзерспейс.Предлагаю показать на конкретное место в юзерспейсе, через которое идут данные. Жду с нетерпением.
не превращайтесь уже в банального тролля. умейте признавать свою неправоту.
ссылка выше на код и схему (для таких троллей. не иначе) предоставлена.
в схеме четко указаны изменения в ядре - а это интеграция с doors и zfs. и все.
все данные и весь ввод-вывод идет только через демон в юзерспейсе (привет переклчениям контекста и двойной буферизации).
очевидно, что все изменения - это попытка натянуть cifs на солярный vfs+zfs.
в линухе этот же код был бы как мертвому припарки - там нет ни дорс, ни zfs, а btrfs (в отличии от zfs) не требует изменения в vfs, так как и так отлично ложится на имеющуюся функциональность.
> не превращайтесь уже в банального тролля. умейте признавать свою неправоту.Я свою правоту вполне умею признавать, когда неправ.
> ссылка выше на код и схему (для таких троллей. не иначе) предоставлена.
Как говорится, чья бы корова мычала..
> в схеме четко указаны изменения в ядре - а это интеграция с
> doors и zfs. и все.
> все данные и весь ввод-вывод идет только через демон в юзерспейсе (привет
> переклчениям контекста и двойной буферизации).В данном случае я бы все-таки хотел увидеть место в юзерлендовом smbd, через которое идет весь ввод-вывод.
> очевидно, что все изменения - это попытка натянуть cifs на солярный vfs+zfs.
> в линухе этот же код был бы как мертвому припарки - там
> нет ни дорс, ни zfs, а btrfs (в отличии от zfs)
> не требует изменения в vfs, так как и так отлично ложится
> на имеющуюся функциональность.Боюсь вы несколько не в теме..
это называется - полный пиндец. :D человеку показали код smb_server.c с его же ссылки http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr... где черным по белому. :D ок. ещё раз:
71 * +===================================+
72 * | smbd daemon |
73 * +===================================+
74 * | | ^
76 * User | | |
77 * --------|--------------|----------------|--------------------
78 * Kernel | | |
80 * | | |
81 * +======|==============|================|=================+
82 * | v v | |
83 * | +-----------+ +--------------------+ +------------------+ |
84 * | | IO | | Kernel Door Server | | User Door Servers| |
85 * | | Interface | | Interface | | Interface | |
Это не код - это комментарий :-)Я не отрицаю факт наличия демона с названием smbd. Я подвергаю сомнение ваше утверждение о том, что через него происходит весь ввод-вывод. И поскольку вы, очевидно, отлично ориентируетесь в коде smbd в солярисе, я предлагаю показать место в солярисном smbd, где происходит весь ввод-вывод. Там чуть больше десятка файлов и меньше 8 тысяч строк кода, так что, думаю, вас не затруднит продемонстрировать где в smbd осуществляется _весь_ ввод-вывод.
Или вы только в приведенном выше комментарии ориентируетесь и все свои умозаключения строите на базе этого комментария о обрывочных сведениях о cifs в линуксе?
> на базе этого комментария о обрывочных сведениях о cifs в линуксе?"на базе этого комментария _и_ обрывочных сведениях о cifs в линуксе", конечно же
да нет! :D
это я предлагаю показать место в ядре куда сваливаются данные приходящие по сети сразу в vfs минуя юзерспейс.
а заодно - почему дорс всё же юзерспейсный? как и сокеты?
а-у-у!
ну объсните откуда в юзерспесе это http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr...
особенно это:
269 if ((rbuf = (char *)alloca(dop_arg.rsize + hdr_size)) == NULL) {
270 errno = ENOMEM;
271 syslog(LOG_DEBUG, "smbd_door_dispatch[%s]: alloca %m",
272 dop_arg.opname);
273 smbd_door_return(&smbd_door_sdh, NULL, 0, NULL, 0);
274 }
и это:
281 hdr->dh_datalen = dop_arg.rsize;
282 (void) smb_doorhdr_encode(hdr, (uint8_t *)rbuf, hdr_size);
283 dop_arg.rsize += hdr_size;
284
285 smbd_door_return(&smbd_door_sdh, rbuf, dop_arg.rsize, NULL, 0);
?
> а-у-у!
> ну объсните откуда в юзерспесе это http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr...
> особенно это:
> 269 if ((rbuf = (char *)alloca(dop_arg.rsize + hdr_size)) == NULL) {
> 270 errno = ENOMEM;
> 271 syslog(LOG_DEBUG, "smbd_door_dispatch[%s]: alloca %m",
> 272 dop_arg.opname);
> 273 smbd_door_return(&smbd_door_sdh, NULL, 0, NULL, 0);
> 274 }Это место через которое происходит весь ввод-вывод? Ну-ну.
Как насчет вот этого:
http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr...
Где тут типы операций, которые хотя бы приблизительно напоминали ввод-вывод?
а при чём тут прямо таки весь ввод-вывод? :D
речь про переключение контекста кернел вс юзерспейс. пока.
ввод-вывод вот тут - http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr...
для примера.
161 case SMB_OPIPE_WRITE:
162 hdr.dh_door_rc = ndr_pipe_write(hdr.dh_fid, data, datalen);
163
164 hdr.dh_datalen = 0;
165 hdr.dh_resid = 0;
166 datalen = hdr_size;
167 break;
юзерспейс аднака :D
> а при чём тут прямо таки весь ввод-вывод? :D
> речь про переключение контекста кернел вс юзерспейс. пока.Не спрыгивай с темы. Ты утверждаешь, что весь ввод-вывод происходит через юзерспэйс. Вот только с аргументацией проблемы.
> ввод-вывод вот тут - http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr...
> для примера.
> 161 case SMB_OPIPE_WRITE:
> 162 hdr.dh_door_rc = ndr_pipe_write(hdr.dh_fid, data, datalen);
> 163
> 164 hdr.dh_datalen = 0;
> 165 hdr.dh_resid = 0;
> 166 datalen = hdr_size;
> 167 break;
> юзерспейс аднака :DИ какое это отношение имеет к сохранению файла с именем "уволить_за_некомпетентность_Anonа_Y_Mouse.docx" на сервер buhsrv.oracle.net? Поясни, плиз? Не хочешь ли ты сказать, что все блоки этого файла попадут так или иначе на обработку в эту функцию?
>Не спрыгивай с темы. Ты утверждаешь, что весь ввод-вывод происходит через юзерспэйс. Вот только с аргументацией проблемы.ах вот к какому слову вы привязались! :D
ок. признаю. не весь. но на производительность это не влияет никак, т.к. переключение контекстов НЕ УМЕНЬШАЕТСЯ.
ты вот вообще утверждал, что ВЕСЬ сервер в ядре - http://www.opennet.me/openforum/vsluhforumID3/72542.html#28
>Наконец-то до тебя доперло. В соляре в ядре не только клиент, но и сервер, что я, собственно, и имел ввиду.мне тебя тоже на этом слове ловить?
>И какое это отношение имеет к сохранению файла с именем "уволить_за_некомпетентность_Anonа_Y_Mouse.docx" на сервер buhsrv.oracle.net? Поясни, плиз?Э нет! я первый спросил! :D
из юзерспейсного smbd (менее 10000 строчек? вы ведь это утверждали?) оказывается вызывается ещё и куча из
libmlrpc/ 27-Sep-2010
libmlsvc/ 27-Sep-2010
libsmb/ 27-Sep-2010
libsmbns/ 27-Sep-2010
libsmbrdr/ 27-Sep-2010
libsmbrp/
>>Не спрыгивай с темы. Ты утверждаешь, что весь ввод-вывод происходит через юзерспэйс. Вот только с аргументацией проблемы.
> ах вот к какому слову вы привязались! :D
> ок. признаю. не весь.Мои аплодисменты!
> но на производительность это не влияет никак, т.к.
> переключение контекстов НЕ УМЕНЬШАЕТСЯ.Уверен? А как же тогде признание неправоты чуть выше?
> ты вот вообще утверждал, что ВЕСЬ сервер в ядре - http://www.opennet.me/openforum/vsluhforumID3/72542.html#28
>>Наконец-то до тебя доперло. В соляре в ядре не только клиент, но и сервер, что я, собственно, и имел ввиду.Боюсь, что слово "весь" тебе почудилось, ибо, как ты и процитировал, я не его не употреблял.
>>И какое это отношение имеет к сохранению файла с именем "уволить_за_некомпетентность_Anonа_Y_Mouse.docx" на сервер buhsrv.oracle.net? Поясни, плиз?
> Э нет! я первый спросил! :DА я тебя переспоросил. Чтобы ты мог проиллюстрировать свои заявления на понятном тебе примере.
> из юзерспейсного smbd (менее 10000 строчек? вы ведь это утверждали?)
В том каталоге, который я тебе привел, 14 файлов и менее 10000 строк кода, которые собственно и составляют демон.
> оказывается вызывается
> ещё и куча из
> libmlrpc/ 27-Sep-2010
> libmlsvc/ 27-Sep-2010
> libsmb/ 27-Sep-2010
> libsmbns/ 27-Sep-2010
> libsmbrdr/ 27-Sep-2010
> libsmbrp/Да, есть еще и библиотеки, которые к нему линкуются, но если, как ты утверждал, весь ввод-вывод проходит через smbd, то прежде чем попасть в эти библиотеки, он вынужден был бы сначала оказаться в контексте smbd. Так что с библиотеками ты опять мимо кассы. Впрочем, тебе, похоже, не привыкать :-)
нда. совсем заврался ты заврался.
> это я предлагаю показать место в ядре куда сваливаются данные приходящие по сети сразу в vfs минуя юзерспейс.Только после вас, сударь.
> а заодно - почему дорс всё же юзерспейсный?
Думаю, вам для начала надо бы просветиться, что это за мезанизм IPC такой - doors, - и для чего он используется
> как и сокеты?
Это что это вы тут имеете ввиду?
угу. просветился.
чё там выше за hdr.dh_door_rc = ndr_pipe_write(hdr.dh_fid, data, datalen);
вау а она то уже из libmlrpc :D
http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr...
так и до libsmb дойдём.
и ведь всё из юзерспейса! :D
вот эта мне функция тоже понравилась
/*
431 * Move bytes between a buffer and a uio structure.
432 * The transfer direction is controlled by rw:
433 * UIO_READ: transfer from buf to uio
434 * UIO_WRITE: transfer from uio to buf
435 *
436 * Returns the number of bytes moved.
437 */
438 ssize_t
439 ndr_uiomove(caddr_t buf, size_t buflen, enum uio_rw rw, struct uio *uio)
440 {
441 struct iovec *iov;
442 int reading = (rw == UIO_READ);
443 size_t nbytes;
444 size_t nxfer = 0;
445
446 assert(rw == UIO_READ || rw == UIO_WRITE);
447
448 while (buflen && uio->uio_resid && uio->uio_iovcnt) {
449 iov = uio->uio_iov;
450 if ((nbytes = iov->iov_len) == 0) {
451 uio->uio_iov++;
452 uio->uio_iovcnt--;
453 continue;
454 }
455
456 if (nbytes > buflen)
457 nbytes = buflen;
458
459 if (reading)
460 bcopy(buf, iov->iov_base, nbytes);
461 else
462 bcopy(iov->iov_base, buf, nbytes);
463
464 iov->iov_base += nbytes;
465 iov->iov_len -= nbytes;
466 uio->uio_resid -= nbytes;
467 uio->uio_offset += nbytes;
468 buf += nbytes;
469 buflen -= nbytes;
470 nxfer += nbytes;
471 }
472
473 return (nxfer);
474 }
> вот эта мне функция тоже понравиласьСмотри, сколько всего нового ты узнаешь. Только вот это часть RPC, а это отнюдь не весь ввод-вывод.
да бросьте уже.
там вся самба из такого кода. я ещё сотню комментов назад ссылку на дце и дком "для_размышлений" давал.
к тому же весь-не_весь - это только ваш способ оправдаться за первоначальную ложь:
>Наконец-то до тебя доперло. В соляре в ядре не только клиент, но и сервер, что я, собственно, и имел ввиду.нельзя всю самбу туда запихнуть. вот и всё.
вернулись к тому же - там ведь ещё и лдап, и цербер, и какая-то странная библа libsqlite, и ещё куча всего. и они все поголовно в ядре. угу.
> да бросьте уже.Начни с себя, а?
> там вся самба из такого кода. я ещё сотню комментов назад ссылку на дце и дком "для_размышлений" давал.
И что? Самба не имеет отношения к тому коду, который в солярисе, так что я не понимаю, почему ты упорно продолжаешь на нее ссылаться.
> к тому же весь-не_весь - это только ваш способ оправдаться за первоначальную ложь:
>>Наконец-то до тебя доперло. В соляре в ядре не только клиент, но и сервер, что я, собственно, и имел ввиду.Ложь говоришь? Ну-ну.. Пока что лжешь здесь ты, ибо так и не предоставил убедительных аргументов в пользу твоего тезиса о том, что CIFS сервер в солярисе - в юзерленде, весь ввод-вывод происходит через юзерленд.
Хотя я могу признать, что мог бы выражаться более четко - существенная часть сервера в ядре. Это, однако, никак не отменяет того факта, что сервер CIFS в ядре таки пристуствует. И если взять NFS, то его части тоже можно найти в ядре и в юзерленде.
А вот в случае с Самбой - весь CIFS сервер в юзерленде получается.
> нельзя всю самбу туда запихнуть. вот и всё.
Ее туда никто и не запихивал. Запихнули ту часть, которая нужна для производительности, главным образом. Как раз таки ту часть, которая отвечает за чтение-запись в файлы.
> вернулись к тому же - там ведь ещё и лдап, и цербер, и какая-то странная библа libsqlite, и ещё куча всего. и они все поголовно в ядре. угу.
Тебе не кажется, что тут ты уже начинаешь бред нести?
да демон это обычный типа самбы - http://blogs.sun.com/timthomas/entry/solaris_cifs_in_workgro...
фан-боям соляры просто надо помнить, что "в Solaris 11 интегрирована" и "в ЯДРО Solaris 11 интегрирована" - это несколько разные вещи
> да демон это обычный типа самбы - http://blogs.sun.com/timthomas/entry/solaris_cifs_in_workgro...
> фан-боям соляры просто надо помнить, что "в Solaris 11 интегрирована" и "в
> ЯДРО Solaris 11 интегрирована" - это несколько разные вещисходи проспись, пынгвын-фанбой. http://blogs.sun.com/marchamilton/entry/solaris_and_cifs
выйди из запоя, твой сан давно уже продали, а ты ещё простых вещей не знаешь.
уровень интеграции с ядром такой же как и в линухе. всё остальное в юзер-спейсе.
зы:
http://docs.sun.com/app/docs/doc/820-2429/createidmappingstr...
полностью в юзер-спейсе. и только не говори, что лдап, нис и т.д. крутятся тоже в ядре. это было бы слишком даже для солярщика в 2-х летнем запое.есть поддержка протокола cifs в ядре (с интеграцией с zfs, вернее с vfs и т.д.), но не более. всё остальное реализовано как обычный сервис в юзер-спейс.
сходи уж чуть дальше по первой ссылке из твоей же ссылки и прочитай.
> есть поддержка протокола cifs в ядреО чем и речь. Но не только клиентской части, но и серверной. Естественно, упихивать все в ядро резона нет, но в той же Самбе все работает в юзерленде, а не только id mapping и прочий менеджмент.
нет никакой серверной и клиентской части. вот о чем я хочу сказать.
есть поддержка cifs в vfs. и в линуховом ядре, и в солярном. в люнуховом даже есть локальная поддержка кэширования. все.
все остальное - юзер-спейс. аутентификция, идентификация, порты, протоколы, msrpc, dcom и т.д.другое дело, что сановский cifs сервер использует эти возможности ядра, а самба - нет.
собственно кусок из самбы взяли и запихнули в оба ядра, о чем по всем выше приведенным всеми ссылкам и сказано. а если бы самба использовала, то это не означало бы, что ее запихнули в ядро. сравните с линуховым вариантом cifs vfs - http://linux-cifs.samba.org/
при чем речь не идет о выишрыше по производительности. ее там и не может быть. а вот элегантое соединение с вфс и плюшками zfs - да.вот для размышления почему это так и не может быть по другому - http://en.wikipedia.org/wiki/FreeDCE
> нет никакой серверной и клиентской части. вот о чем я хочу сказать.Предлагаю всё же придерживаться терминологии используемой в ядре,
иначе можно абстрагировать до того, что любой файловый обмен,
это куча байт летающих по проводам.1. Linux CIFS-клиент может работать, как C поддержкой в ядре, так и БЕЗ.
2. Linux CIFS-серверу (ака samba) НЕ нужна поддержка в ядре, точнее её нет. :)
3. Linux NFS-серверу нужна поддержка в ядре (он можент и без, но уже, чуть менее 10 лет, так никто не делает).
4. Тяжело говорить о NFS клиентах, так как они могут быть в таких немыслимых позах и видах, в том числе, для монтирования в каталог юзают ядро, для быстрого NFS-to-VFS
ну блин, в коротком комменте сформулированном за 1 минуту трудно быть полностью корректным в терминологии и понятиях.
мне важнее, чтобы собеседнику было понятно о чем речь.зы:
по пункту 2 - там не много то и надо уже.
прсто сама эта поддержка (может пока. zfs то нету, а бтр и так нормально лежит) не особо и востребована.
> нет никакой серверной и клиентской части. вот о чем я хочу сказать.Предлагаю ознакомиться вот с этим, прежде чем рассуждать что есть а чего нет:
http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr.../
http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr.../
А также прежде чем делать заявления типа этого:
> собственно кусок из самбы взяли и запихнули в оба ядра,
При этом я не хочу сказать, что в юзерленде ничего нет - там естественно есть много всего
> при чем речь не идет о выишрыше по производительности. ее там и не может быть. а вот элегантое соединение с вфс и плюшками zfs - да.
Ну и выигрыш по производительности там таки быть может. Ибо это не юзерлендовая Самба.
с павлинухом уже обсудили терминологию. думаю вы прекрасно поняли о чем речь.
ну и если вы не видите на страницах осла записи вида "спасибо разработчикам самбы за адоптацию и бла-бла-бла", то как бы говорить не о чем.
>Ну и выигрыш по производительности там таки быть может. Ибо это не юзерлендовая Самба.не в данном протоколе
да нету там его. проблемма юзерспейса только в частом переключении контекстов и двойном кэшировании. а ее и так решили, но об это мне пока отвлекаться не хочется. а хочется рассмотреть ваши ссылки. смотрим файл http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr... в нем:
* +===================================+
72 * | smbd daemon |
73 * +===================================+
74 * | | ^
75 * | | |
76 * User | | |
77 * -----------|--------------|----------------|--------------------------------
78 * Kernel | | |
79 * | | |
80 * | | |
81 * +=========|==============|================|=================+
82 * | v v | |
83 * | +-----------+ +--------------------+ +------------------+ |
84 * | | IO | | Kernel Door Server | | User Door Servers| |
85 * | | Interface | | Interface | | Interface | |
86 * | +-----------+ +--------------------+ +------------------+ |
87 * | | | ^ ^ |
88 * | v v | | | +=========+
89 * | +-----------------------------------+ | | | |
90 * | + SMB Server Management (this file) |<------------------| ZFS |
91 * | +-----------------------------------+ | | | |
92 * | | | | Module |
93 * | +-----------------------------------+ | | | |
94 * | + SMB Server Internal Layers |------+ | +=========+
95 * | +-----------------------------------+ |вот и все. думаю и так понятно.
если есть желание, то можете сравнить с линухом http://git.kernel.org/?p=linux/kernel/git/next/linux-next.gi... разница не настолько существенна как казалась бы по тону начала этой ветки обсуждений
> ну и если вы не видите на страницах осла записи вида "спасибо
> разработчикам самбы за адоптацию и бла-бла-бла", то как бы говорить не
> о чем.О чем это вы тут?
>>Ну и выигрыш по производительности там таки быть может. Ибо это не юзерлендовая Самба.
> не в данном протоколеНу-ну..
> да нету там его. проблемма юзерспейса только в частом переключении контекстов и
> двойном кэшировании. а ее и так решили, но об это мне
> пока отвлекаться не хочется.А может стоит отвлечься? Вдруг много нового для себя откроете?
> а хочется рассмотреть ваши ссылки. смотрим файл
> http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr...
> в нем:
> * +===================================+
> 72 *
> | smbd daemon |
> 73 *
> +===================================+
> вот и все. думаю и так понятно.Чего понятно-то? Что smbd есть? Так никто этого не отрицал. Может все-таки стоило и в код smbd заглянуть?
> если есть желание, то можете сравнить с линухом http://git.kernel.org/?p=linux/kernel/git/next/linux-next.gi...
Интересно, мы вроде про сервер разговариваем, а вы почему-то ссылку на линуксовый клиент приводите, да еще и в linux-next. Ничего не попутали?
еще раз. для медленно думающих:
+===================================+
72 * | smbd daemon |
73 * +===================================+
74 * | | ^
76 * User | | |
77 * -----------|-------------|--------------|----------------
78 * Kernel | | |
79 * | | |
81 * +=========|=============|==============|=================+
82 * | v v | |
83 * | +-----------+ +--------------------+ +------------------+
84 * | | IO | | Kernel Door Server | | User Door Servers|
85 * | | Interface | | Interface | | Interface |
слово User в 76 строке паказывает границу бэерспейса, слово Kernel в 78 - кернелспейс. 77 строка указавает барьер между ними. все данные идут через юзерспейс со всеми вытекающими, указанный в 72 строке под скромным названием smbd daemon.
> все данные идут
> через юзерспейс со всеми вытекающими, указанный в 72 строке под скромным
> названием smbd daemon.Вот тут http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr.../ чуть более десятка файлов, надеюсь, вас не затруднит указать в каком именно из них происходит обработка всего ввода-вывода. Вы ведь так хорошо ориентиируетесь в этом коде..
Жду с нетерпением.
обработка?!! :D
с радостью! но есть "но".
сразу же после того, как вы (не затруднит?) объясните как данные с клиетской машины (вих хп к примеру. нужно выложить файл "уволить_за_некомпетентность_Anonа_Y_Mouse.docx" на сервер buhsrv.oracle.net) попадают в солярную vfs (а именно том tank/cifs0) минуя юзерспейс.могу намекнуть - почему на http://en.wikipedia.org/wiki/Doors_(computing)#Overview есть такие строки:
>The doors subsystem is implemented as a user-space library with some kernel support, and relies heavily on threads. It is designed for low overhead, and the Solaris implementation uses some assembler code for maximum efficiency.?
ну вот. исчез мой собеседник. соврал про 10 файлов, минусов поставил и испарился.
а я только про кучу юзерспейсных вещей ещё хотел поговорить. типа libsmb -
http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr.../
да и про весь остальной код - http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr.../
> ну вот. исчез мой собеседник. соврал про 10 файлов, минусов поставил и
> испарился.Минусов это ты не от меня заслужил, так что не расстраивайся, а подумай.
> а я только про кучу юзерспейсных вещей ещё хотел поговорить. типа libsmb
> -
> http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr.../
> да и про весь остальной код - http://src.opensolaris.org/source/xref/onnv/onnv-gate/usr/sr.../Давай, поговори.. Что ты хочешь сказать?
ты выше на код отвечай. там и поговорим.:D
а то поразвёл кучу ничего не значащих коментариев.
>Минусов это ты не от меня заслужил, так что не расстраивайся, а подумай.ну конечно!!! :D
ps:
и о каком вводе-выводы ты всё время толдычишь? речь идёт о переключении контекста юзерспейс-кернелспейс.
так что вперёд, объясняй.
а потом дойдём и до квот, юзераус, uid-sid mapping, dfs, asincresponse,... и почему они все в юзерспейсе и все вызываются на каждую сессию.
> ты выше на код отвечай. там и поговорим.:DЯ здесь отвечу. Впрочем, выше тоже отвечал.
> а то поразвёл кучу ничего не значащих коментариев.
Проказать место, которое отвечает за обработку всего ввода-вывода в солярисном smbd ты так и не смог. Как, впрочем, не смог и признаться в том, что заблуждался. Так что это двойной фэйл.
> ps:
> и о каком вводе-выводы ты всё время толдычишь?Я не толдычу, я пытаюсь от тебя добиться подтверждения твоего тезиса о том, что весь ввод-вывод в солярисной реализации CIFS сервера происходит через юзерлэндовый smbd. Или признания того, что был неправ. Пока что безуспешно.
> речь идёт о переключении контекста юзерспейс-кернелспейс.
Начинаешь подменять тему дискуссии? Ну-ну.. В том-то и дело что для операций собственно чтения-записи в солярисе переключений контекста не нужно, ибо все происходит в ядре. Ты почему-то упорно отказываешься это понять.
> а потом дойдём и до квот, юзераус, uid-sid mapping, dfs, asincresponse,... и
> почему они все в юзерспейсе и все вызываются на каждую сессию.Задай себе вопрос, сколько раз они вызываются, и сколько раз вызываются собственно чтение/запись?
>Я здесь отвечу. Впрочем, выше тоже отвечал.там был фэйл.
>>Я здесь отвечу. Впрочем, выше тоже отвечал.
> там был фэйл.Угу.. Ты лучше за своими фэйлами смотри..
> с радостью! но есть "но".
> сразу же после того, как вы (не затруднит?) объясните как данные с клиетской машины (вих хп к примеру. нужно выложить файл "уволить_за_некомпетентность_Anonа_Y_Mouse.docx" на сервер buhsrv.oracle.net) попадают в солярную vfs (а именно том tank/cifs0) минуя юзерспейс.Что, не так то просто оказалось найти в солярисном smbd место, через которое идет весь ввод-вывод? Ну так неудивительно :-) Сложно найти черную кошку в темной комнате, особенно если ее там просто-напросто нет.
хорош комменты плодить. думаешь среди них и твой фЭйл затеряется? :D
см. выше.
> хорош комменты плодить. думаешь среди них и твой фЭйл затеряется? :D
> см. выше.Нечему теряться-то.. Во всяком случае пока нечему. А вот у тебя есть шанс сократить свой двойной фэйл до одного. Впрочем, я не особо надеюсь.
ну как же! :D
>Наконец-то до тебя доперло. В соляре в ядре не только клиент, но и сервер, что я, собственно, и имел ввиду.потом код в 10000 строк. ну а вызовы ещё кучи быбл - да кто их считае? :D
там xVM на Xen'е выжило??
> там xVM на Xen'е выжило??Нет, не выжило. Выкосили еще в июне. А жаль.
> там xVM на Xen'е выжило??Оказывается, что пока еще живо. Это бренд lx выкосили в июне. XEN только собирались, но еще не выкосили. Правда не факт, что оно доживет до релиза.
Пробовал загрузит xVM - не запускается, дает неразрешенную ссылку. У кого-нибудь получилось?
А OpenSolaris - RIP?
> А OpenSolaris - RIP?Да.
http://openindiana.org/
Оракел "молодцы". Контрольных сумм исошек нет.
Кто качал sol-11-exp-201011-text-x86.iso ? Сравним md5? У меня 9A5AF72F64158942841AFC33F6AFC42D
А то смущает меня Content-Type: text/plain в отдаче их сервера на исошке.
Невнимательно смотрите:
(sol-11-exp-201011-ai-sparc.iso) = 39860c89be5b00f115c0cce1506ee672
(sol-11-exp-201011-ai-x86.iso) = 36527d4d49a645ef6f6d2677c8e0118c
(sol-11-exp-201011-live-x86.iso) = 43a67784d57a8f02f529f180c37f4c37
(sol-11-exp-201011-text-sparc.iso) = c8a667cea170799a6222936b73c2dd8d
(sol-11-exp-201011-text-x86.iso) = 9a5af72f64158942841afc33f6afc42d
(sol-11-exp-201011-ai-x86.usb) = a14e10047f06ea6a9cf7972b5b771e77
(sol-11-exp-201011-live-x86.usb) = 6bac5a313b06996221ef563dbdd533f9
(sol-11-exp-201011-text-x86.usb) = d131bbb68d9f06736befa29690ecec22
(sol-11-exp-201011-repo-full-iso-a.zip) = 1b50f3a20ca65c53e71075738377998d
(sol-11-exp-201011-repo-full-iso-b.zip) = 6cc3edad44c9f26bb91f6cdaf4f5c05f
(sol-11-exp-201011-repo-full.iso) = ddb4b2cd4cf4341497bae0216b26724d
Кто качал, там регистрация требуется? А то сейчас не могу проверить.
Требуется
что то я не понял насчет IPMP и dladm, они же давно есть... или имеется ввиду, что это будет в зонах работать ?
Наконецто у них пакетный менеджер появился. Жуткий напряг установка патчей вручную
это для все остальных вручную, а так есть EIS :)
Хотя даже если ты не партнер, то Recommended Patch Cluster тоже ставится скриптом... не знаю где там вручную...
Посмотрел ужаснулся... Решил для себя что буду сторонником openindiana.
> Посмотрел ужаснулся... Решил для себя что буду сторонником openindiana.Чему? Меня порадовало например то, что это изделие на вид и внутри тот же opensolaris, недавно похороненный. Т.е. кодовую базу все-таки решили не выкидывать, а использовать. Причем что-то даже развивают (за 15 минут знакомства понравился инсталлятор и ipadm). Если посмотреть в будущее с осторожным оптимизмом, то можно предположить что продажи контрактов на собственную ось заставят Ларри вкладывать в нее средства. Не будет развития Express, illumos и индиана тоже заплесневеют - ну нету у nexenta средств сколотить такую же команду разработчиков, какая была в сане. Так что, осталось надеяться на деньги оракла
> Чему? Меня порадовало например то, что это изделие на вид и внутри тот же opensolaris, недавно похороненный.а чему тут удивляться то?
можно подумать был другой выход.
ИМХО, был. В виде прикрытого еще саном sol 11 Express (indiana?). Который собственно изначался планировался как серверная система и имел много общего с нынешней десяткой. А OpenSolaris изначально планировалась больше на десктопы - мне сложно представить time slider на сервере (не домашнем), там и графика-то не особо нужна. Вариант, конечно, чисто виртуальный, но он все же есть - после хорошо знакомой для оракла десятки интегрировать в ее кодовую базу новые плюшки и патчи для работы middleware не особо сложно, по сравнению с переездом на дистрибутив с немного другой идеологией. Повторяюсь, это мое имхо. Да и письмо о "прекращении разработки" я воспринял, например как прекращение разработки, а не как "продолжаем разрабатывать, только быстро все ребрендим, закрываем, продаем, бесплатно никому ничего не отдаем".
>мне сложно представить time slider на сервереа зря. достаточно взглянуть на жаба десктоп в 10 солярке ака гном во всех остальных *nix.
зы:
ответ банально прост - нет и не было никакой закрытой sol 11 Express (не indiana), разрабатываемой в закрытом режиме в застенках корпорации.
все новинки вы видели в осле. кроме разве что мелких фич к ним, которые бы появились в 11 (собственно уже появились, согласно сабжу) включая спарки.
ззы:
сервера саней - это не только ценный мех, но и 3, а то и 4 санрея и прочих плюшек, которыми оракл кстати также барыжит. вот тут почитать http://www.oracle.com/us/technologies/virtualization/061984....
вот тут посмотреть http://medianetwork.oracle.com/media/showComments/15658
Но ведь nexenta, illumos и openindiana развиваются не от solaris express, по любому.
Они просто не могут. Лицензия теперь запрещает брать бинари оракла, сорцов от изменений больше нет - разработки закрыты для посторонних. Фичи, которые появились уже в 11 express и еще появятся НЕ могут попасть в индиану. Типа того же ускорения работы zfs за счет страйпинга метаданных, которое добавили уже после разделения веток. Если оракл не откроет все опять (что как бы не факт что случится.. хотя посмотрим...), то ответвившиеся проекты не будут получать новых возможностей соляриса. А только то, что они сами разработали. А у кого масса разработчиков соляриса и денег на оплату их труда? У оракла, не у индианы...Так что если остальным и суждено плеснеть, они это будут делать независимо от развития соляриса. И в любом случае пути их будут расходиться все дальше. И деньги оракла, сколько бы тот их не вкладывал, никак им не помогут. Сорцы закрыты, что там оракл изменяет - неизвестно. Доступа нет.
PS не было бы такого беспокойства по этому поводу, если бы не было такого различия в работе нексенты и соляриса, как видно например тут http://www.anandtech.com/show/3963/zfs-building-testing-and-...
А с текущим положением дел есть сомнения, что стоит ожидать улучшений по этому поводу. Скорее, различия будут все расти - и *никто* не будет иметь возможности это исправить, без желания на то оракла. Который как-то не слишком заинтересован.
> Но ведь nexenta, illumos и openindiana развиваются не от solaris express, по
> любому.
> Они просто не могут. Лицензия теперь запрещает брать бинари оракла, сорцов от
> изменений больше нет - разработки закрыты для посторонних. Фичи, которые появились
> уже в 11 express и еще появятся НЕ могут попасть в
> индиану. Типа того же ускорения работы zfs за счет страйпинга метаданных,
> которое добавили уже после разделения веток. Если оракл не откроет все
> опять (что как бы не факт что случится.. хотя посмотрим...),не могу привести пруф, но оракл вроде бы анонсировал окрытие некоторых частей кода, спустя некоторое время после выхода продукта на рынок - конечно, большой вопрос сколько и когда он откроет, ключевые участки могут и не попасть под открытие. Но для illumos и это уже хорошо, хоть какое-то развитие, а не переписывание проприетарных участков кода.
(возьму слова обратно, если в illumos первой появиться хотя бы дедупликация данных на существующем пуле)> PS не было бы такого беспокойства по этому поводу, если бы не
> было такого различия в работе нексенты и соляриса, как видно например
> тут http://www.anandtech.com/show/3963/zfs-building-testing-and-...
> А с текущим положением дел есть сомнения, что стоит ожидать улучшений по
> этому поводу. Скорее, различия будут все расти - и *никто* не
> будет иметь возможности это исправить, без желания на то оракла. Который
> как-то не слишком заинтересован."Главное - не впадать в отчаяние" (с) х/ф "Особенности национальной охоты"
А мне понравилась система Oracle Solaris 11 Express, именно то что искал. Ядро солярки, база пакетов как у linux, zfs новая, поддержка многих вещей из коробки(шаринг smb, nfs) через файлуху. зоны. Хороший tcp/ip стек.Правда немогу представить, как сейчас переводить сервера с FreeBSD на Solaris. особенно думаю о хостинг сервере с высокой нагрузкой.
> А мне понравилась система Oracle Solaris 11 Express, именно то что
> искал. Ядро солярки, база пакетов как у linux, zfs новая, поддержка
> многих вещей из коробки(шаринг smb, nfs) через файлуху. зоны. Хороший tcp/ip
> стек.
> Правда немогу представить, как сейчас переводить сервера с FreeBSD на Solaris. особенно
> думаю о хостинг сервере с высокой нагрузкой.Не в Oracle случаем работаешь?
5 баллов! :D
особенно на экспресс переводить, угу.
смб кстати не в глобальных зонах не работает. фаервол традиционно уг,...
в общем был он всегда подложкой под субд, а теперь и подавно.
> смб кстати не в глобальных зонах не работает.И что же это, интересно, ему мешает, если он в весь юзерленде, как ты тут пытаешься доказать?
где я писал, что он весь в юзерлэнде? :D
демон как демон. с поддержкой в ядре. для особо одарённых даже пример с pppd приводил с поддержкой в ядре.а про зоны - вон субд оракл даже такой поддержки в ядре не имеет и та же ситуация. к чему бы? :D
учиться вам барин надо.
> где я писал, что он весь в юзерлэнде? :DЛадно, не писал. Но никто тебе не мешает запустить ту же самбу в локальной зоне, если тебе так сильно надо.
> а про зоны - вон субд оракл даже такой поддержки в ядре
> не имеет и та же ситуация. к чему бы? :DЧто значит "та же ситуация"? Не хочешь ли ты сказать что оракл в локальной зоне не работает?
> учиться вам барин надо.
Я как-нибудь сам разберусь, где и чему мне нужно учиться. Ты лучше за своими пробелами в знаниях смотри, больше пользы будет.