В состав четвертой альфа версии Firefox 3 (http://www.mozilla.org/projects/firefox/3.0a4/releasenotes/) включена библиотека FUEL Javascript (http://wiki.mozilla.org/FUEL) (Firefox User Extension Library), обновлено содержимое окна с информацией о текущей странице (http://mozillalinks.org/wp/2007/04/firefox-3-alpha-4-released/), улучшены средства для работы в offline режиме (http://www.campd.org/stuff/Offline%20Cache.html) (например, добавлен SQL-подобный интерфейс к offline кэшу).
Также
объявлено (http://mozillalinks.org/wp/2007/04/the-road-to-firefox-3/) о небольшом изменении планов выпуска Firefox 3.0. Так, пятая альфа версия выйдет в конце мая и будет включать новую систему объединенных закладок и истории работы (Places). В конце июня завершит череду альфа релизов (http://wiki.mozilla.org/Firefox3/Schedule) шестая альфа версия c реализацией улучшений интерфейса для загрузки файлов (в download manager появится возможность временной остановки скачивания) и окончательной доработкой системы Places.
Под вопросом находится реализация таких возможностей как сохранение страниц в PDF формате, поддержка микроформатов и настроек которые можно привязать к конкретному сайту.
Наиболее вероятная дата выхода релиза Firefox 3.0 - декабрь 2007 года.URL: http://developer.mozilla.org/devnews/index.php/2007/04/27/gr.../
Новость: http://www.opennet.me/opennews/art.shtml?num=10638
сохранение в PDF - хочуууууууу
через pdf print драйвер в KDE :)
Или печать в PostScript фаил
"улучшены средства для работы в offline режиме" означает ли это, что кэш не будет ломаться при падении фаерфокса?
Еще пожалуй ниразу невидел чтобы тут народ был чем то доволен :-D
Обязательно в каждую новость про FF напишут про память... Давайте автоматом это будет к нововсятм о FF присоединятся.
Ну занимает firefox 100 метров в памяти, а мне не жалко - у меня гиг. Не для простоя я ж её купил :)
И у меня вот на буке гиг - очень не нравится, что когда юзаю сафари, то все ок, а когда фокс - постепенно 700М-1Гб сьедает (за неделю).
омнивеб тем же страдает (
камино зато весьма неплохо себя ведет
Что вы с ним делаете??Он при открытии 300 паг жрет не более полугига.С течением времени жрач не растет особо...
утечка из-за Flash
Да что все про память взъелись?
У меня на лептопе пол гига и пользую ФФ отлично. У меня на работе 2 гиг, и тоже ФФ работает отлично 50мб при старте после ооочень длительного использования ну до 300-от бывает даходит.
Мне кажется проблема утечек не в ФФ а в библиотеках коими он пользуется или не умением его правильно настраивать, потому как его можно по ошибке настроить так что бы он и 4 гиг занял...
да забыл добавить сейчас много каких пакостей типа вирусов пишется конкретно под ФФ это тоже может быть проблема "утечек памяти"
Если ты комп ребутишь каждую неделю, может и не заметишь. а вот недели через две файрфокс полгига-гиг уже слопает, даже если его не особо много использовать.
Новая модная забава: меряться аптаймом домашней машинки? Или по-старинке в духе ООО "Рога и копыта" фокса на серваке пускаем?
Ты как никогда прав. поднял на рабочей тачке vnc-сервер, с сервака открыл пяток ff-ов с bind-ами к разным айпишникам и многопоточно качаю с рапидшары бесплатно. Другого метода не знаю, за инфу платить не привык, wget-ом картинки в post-форме распознавать ломает.
Из дому коннекчусь кратковременно к vnc-серверу, запускаю новые порции скачивания. Третья неделя, куча HDTV-фильмов, полёт браузеров нормальный. debian sarge, ff 1.5
это из-за Flash :(
Не знаю. У меня на машине полгига оперативы, аптайм по 15-30 дней. Больше 350 метров оперативы не забивается. Фокс юзаю вполне интенсивно. Я что-то не так делаю?
А зачем по 300 страниц открывать?
у меня 256 мб ОЗУ ! Стоит debian Etch ! При старте лиса занимает 15 МБ ! после дня роботы из 10 закладками не больше 40 МБ !
а что, такая проблема перезапустить FF?
согласен с предыдущими ораторами, на кой чёрт мучать себя и компьютер? Может я чего то не понимаю, но что мешает перезагрузить компьютер/firefox ?
идеология юникса мешает.
Касательно "навороченного" управления докачками файлов - мне понравилось, как Konqueror без изысков предлагает докачать файл или заменить его, если таковой при сохранении обнаружен. Таким образом, я могу в одном месте скачать файл наполовину, перенести его в другое и докачать до конца. Как бы не то, что типично, но это пример того, что простой подход оставляет кучу гибкости. А вот навороченные оперы да ff-ы - им фиг подсунешь файлик, не ими созданный. А казалось бы - на них работает весь прогрессивный мир :-) Само удобство и продуманность. Но файл можем при операции сохранения лишь заменить. Не докачать.Далее: Почему я не могу скачать кусок файла? скажем, со 1234545-го байта по 64323423-й? Это как будто изврат и даже wget не предоставляет этого, однако таким образом я в простом браузере смогу реализовать многопоточную качалку без всяких дополнительных *get-ов - всего два дополнительных, уже default-ными значениями заполненных поля в диалоговом окне скачивания. Ведь по сути заявленная тут остановка-возобновление закачки реализует именно эту часть - прерывание на определённом байте, затем новый запрос и skip-запрос к следующему байту. А ведь простота и широта возможностей - это так знакомо здесь присутствующим.
Что действительно порадовало - это SQL-запросы к кэшу. Осталось теперь передвинуть бегунок на бесконечность и иметь свой локальный поисковик по посещённым страничкам вместо кучи плагинов с неинтересными-несовместимыми форматами сохранения подборок и обидно онлайновыми закладками, которые часто ведут на недолговечные странички. Не таскать же проксятник с многогиговым кэшем как промежуточность. До появления этого придётся пользоваться биглем и file->save as...
На данный момент, как я понимаю, у FF пассивное использование кэша (сначала запрос даты странички с сервера, потом сравнение с датой в кэше и открытие либо того, либо другого), у Оперы перманентно агрессивное (если есть в кэше - открыть, а на F5 - взять с сервера), а Konqueror позволяет выбрать политику по вкусу. Надеюсь, тоже расширят гибкость, раз уже даже язык запросов решили внедрить.
>Далее: Почему я не могу скачать кусок файла? скажем, со 1234545-го байта
>по 64323423-й? Это как будто изврат и даже wget не предоставляет
>этогоНеправду говорите.
wget --header "Range: bytes=1234545-64323423"Другие варианты:
Последние 500 байтов:
wget --header "Range: bytes=-500"Только первый и последний байты:
wget --header "Range: bytes=0-0,-1"
>Что действительно порадовало - это SQL-запросы к кэшу. Осталось теперь передвинуть бегунок на бесконечность и иметь свой локальный поисковик по посещённым страничкам...Google Web History тоже умеет искать в посещённых страничках.
С уважением
Дмитрий
> смогу реализовать многопоточную качалку
А зачем нужна многопоточная качалка?
Сыт голодному не верит - админ юзера не поймёт. В корпоративном трафике решающую ноту играют потоки и их количество, до тех пор, конечно, пока ими не займётся системный администратор :-)
А вот файлик скачать бывает нужно как можно быстрее.. Ты льёшь дистриб и он обещает скачаться через час после окончания рабочего дня, а в соседнем кабинете смотрят ютубовские видеоролики на пяти компах без остановки. Однако прав админа в сети у тебя нет.
Ух...
Дак ведь только в конце года выйдет.