The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Компания Mozilla представила движок распознавания речи DeepSpeech 0.6

08.12.2019 13:14

Представлен выпуск развиваемого компанией Mozilla движка распознавания речи DeepSpeech 0.6, который реализует одноимённую архитектуру распознавания речи, предложенную исследователями из компании Baidu. Реализация написана на языке Python с использованием платформы машинного обучения TensorFlow и распространяется под свободной лицензией MPL 2.0. Поддерживается работа в Linux, Android, macOS и Windows. Производительности достаточно для использования движка на платах LePotato, Raspberry Pi 3 и Raspberry Pi 4.

В наборе также предлагаются обученные модели, примеры звуковых файлов и инструментарий для распознавания из командной строки. Для встраивания функции распознавания речи в свои программы предложены готовые к применению модули для Python, NodeJS, C++ и .NET (сторонними разработчиками отдельно подготовлены модули для Rust и Go). Готовая модель поставляется только для английского языка, но для других языков по прилагаемой инструкции можно обучить систему самостоятельно, используя голосовые данные, собранные проектом Common Voice.

DeepSpeech значительно проще традиционных систем и при этом обеспечивает более высокое качество распознавания при наличии постороннего шума. В разработке не используются традиционные акустические модели и концепция фонем, вместо них применяется хорошо оптимизированная система машинного обучения на основе нейронной сети, которая позволяет обойтись без разработки отдельных компонентов для моделирования различных отклонений, таких как шум, эхо и особенности речи.

Обратной стороной подобного подхода является то, что для получения качественного распознавания и обучения нейронной сети движок DeepSpeech требует большого объёма разнородных данных, надиктованных в реальных условиях разными голосами и при наличии естественных шумов. Сбором подобных данных занимается созданный в Mozilla проект Common Voice, предоставляющий проверенный набор данных с 780 часами на английском языке, 325 на немецком, 173 на французском и 27 часами на русском.

Конечной целью проекта Common Voice является накопление 10 тысяч часов c записями различного произношения типовых фраз человеческой речи, что позволит достичь приемлемого уровня ошибок при распознавании. В текущем виде участниками проекта уже надиктовано в сумме 4.3 тысячи часов, из которых 3.5 тысячи прошли проверку. При обучении итоговой модели английского языка для DeepSpeech использовано 3816 часов речи, кроме Common Voice охватывающей данные от проектов LibriSpeech, Fisher и Switchboard, а также включающей около 1700 часов транскрибированных записей радиошоу.

При использовании предлагаемой для загрузки готовой модели английского языка уровень ошибок распознавания в DeepSpeech составляет 7.5% при оценке тестовым набором LibriSpeech. Для сравнения, уровень ошибок при распознавании человеком оценивается в 5.83%.

DeepSpeech состоит из двух подсистем - акустической модели и декодировщика. Акустическая модель использует методы глубинного машинного обучения для вычисления вероятности наличия определённых символов в подаваемом на вход звуке. Декодировщик применяет алгоритм лучевого поиска для преобразования данных о вероятности символов в текстовое представление.

Основные новшества DeepSpeech 0.6 (ветка 0.6 не совместима с прошлыми выпусками и требует обновления кода и моделей):

  • Предложен новый потоковый декодировщик, обеспечивающий более высокую отзывчивость и не зависящий от размера обрабатываемых звуковых данных. В итоге, в новой версии DeepSpeech удалось снизить задержку на распознавание до 260 мс, что на 73% быстрее, чем раньше, и позволяет применять DeepSpeech в решениях для распознавания речи на лету.
  • Внесены изменения в API и проведена работа по унификации имён функций. Добавлены функции для получения дополнительных метаданных о синхронизации, позволяющие не просто получать на выходе текстовое представление, но и отслеживать привязку отдельных символов и предложений к позиции в звуковом потоке.
  • В инструментарий для обучения модули добавлена поддержка использования библиотеки CuDNN для оптимизации работы с рекуррентными нейронными сетями (RNN), что позволило добиться существенного (примерно в два раза) увеличения производительности обучения модели, но потребовало внесения в код изменений, нарушающих совместимость с моделями, подготовленными ранее.
  • Минимальные требования к версии TensorFlow подняты с 1.13.1 до 1.14.0. Добавлена поддержка легковесной редакции TensorFlow Lite, при использовании которой размер пакета DeepSpeech уменьшен с 98 MB до 3.7 MB. Для использования на встраиваемых и мобильных устройствах с 188 MB до 47 MB также сокращён размер упакованного файла с моделью (для сжатия использован метод квантования после завершения обучения модели).
  • Языковая модель переведена на другой формат структур данных, позволяющий выполнять маппинг файлов в память при загрузке. Поддержка старого формата прекращена.
  • Изменён режим загрузки файла с языковой моделью, что позволило снизить потребление памяти и уменьшить задержки при обработке первого запроса после создания модели. В процессе работы DeepSpeech теперь потребляет в 22 раза меньше памяти и запускается в 500 раз быстрее.
  • Проведена фильтрация редких слов в языковой модели. Общее число слов сокращено до 500 тысяч самых популярных слов, встречающихся в тексте, использованном при тренировке модели. Проведённая чистка позволила снизить размер языковой модели с 1800МБ до 900МБ, практически не повлияв на показатели уровня ошибок распознавания.
  • Добавлена поддержка различных техник создания дополнительных вариаций (augmentation) звуковых данных, используемых при обучении (например, добавление к набору вариантов, в которые внесены искажения или шумы).
  • Добавлена библиотека с биндингами для интеграции с приложениями на базе платформы .NET.
  • Переработана документация, которая теперь собрана на отдельном сайте deepspeech.readthedocs.io.


  1. Главная ссылка к новости (https://hacks.mozilla.org/2019...)
  2. OpenNews: Mozilla развивает собственную систему машинного перевода
  3. OpenNews: Facebook опубликовал открытую систему распознавания речи Wav2letter++
  4. OpenNews: Проект Mozilla выпустил открытую систему распознавания речи
  5. OpenNews: Mozilla развивает свою систему распознавания речи
  6. OpenNews: Компания Mozilla представила систему синтеза речи LPCNet
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/51991-deepspeech
Ключевые слова: deepspeech, voice
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (83) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.2, Аноним (2), 13:37, 08/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +6 +/
    Кстати, как там дела над:
    https://www.opennet.me/opennews/art.shtml?num=51110
     
     
  • 2.3, Аноним (3), 13:42, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • –8 +/
    Исходя из графиков можно сделать вывод что теперь оно бесполезно чуть более чем полностью. А по ссылке инициатива по компрометации и дискредитации приличной сборки браузера с удалёнными бэкдорами и телеметрией.
     
     
  • 3.39, Аноним (39), 19:45, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Коммент твой бесполезен чуть более чем полностью. Так же как и все комменты, которые проповедуют о "бесполезности" вообще всего кода. Меньше нойте, больше пишите код, бесполезные вы наши.
     
     
  • 4.40, Аноним (3), 20:23, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Речь не о вообще всём коде, а о результате подобной "оптимизации" под мобильные устройства.
     
  • 4.64, InuYasha (?), 12:31, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Леннарту тоже _ты_ насоветовал? )
     

  • 1.4, Аноним (4), 13:43, 08/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • –3 +/
    аугментация - это не корекция, а наоборот - порча.
     
     
  • 2.80, Аноним (80), 20:48, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    аугментация - это модификация с целью улучшения, как уж получается - другой вопрос.
     
     
  • 3.81, Аноним (4), 23:23, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Вы в машобе, я вижу, совсем не очень понимаете. Улучшают модель. Улучшают - в смысле улучшают её обобщающие способности. Для этого нужно много данных, похожих на реальные. А реальные данные внезапно испорченные.

    Для этого модель учат работать на испорченных данных. Для картинок: вращают, флипают и прочие аффинные преобразования, закрашивают части, кропают, делают нелинейные искажения, типа сферической абберации, добавляют шумы и дефекты оптики и матрицы, добавляют adversarial-примеси. От всего этого кошка в тюленя не превратиться, и сеть должна это усвоить.

    Тут звук и тут делают похожие вещи.

     
     
  • 4.88, Аноним (4), 02:17, 10/12/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    ё!@#$%й стыд! разумеется "не превратится".
     

  • 1.5, Аноним (4), 13:52, 08/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • –3 +/
    > 27 часами на русском.

    Операторам связи по закону Яровой голос диктуете (из-за чего у кое-кого уже наверное лучшая в мире система для распознавания русской речи, но с вами ей не поделятся, ибо для них желательно, чтобы распознавали речь вы исключительно в облаках), а Мозилле продиктовать, значит, западло !?

     
     
  • 2.6, Аноним (6), 13:58, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > Мозилле продиктовать, значит, западло !?

    Мсье, прошу вас пройти на сайт Common Voice и собственноручно^W собсвенноголосно надиктовать сколько угодно часов речи.

     
     
  • 3.7, Аноним (4), 14:02, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • –3 +/
    Просто поставьте на телефон прогу, пишущую ваши разговоры с микрофона (и не пишущую ответы ваших собеседников). И вылейте их туда. Всё равно по закону Яровой всё пишется.
     
     
  • 4.10, Аноним (6), 14:29, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +3 +/
    А текстовое представление надиктованной речи кто будет печатать?
     
     
  • 5.16, Аноним (4), 15:20, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    работники мозиллы / туркеры / толокеры.
     
  • 5.21, Ю.Т. (?), 15:34, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Оно само научится.
     
  • 4.55, Дмитрий (??), 07:16, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    что же ты такой болезный вообще в сети делаешь? Да и в этом мире. За тобой все следят. Шапочка есть из фольги?
     
     
  • 5.67, Аноним (67), 12:42, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    А что он не так сказал? Всё в соответствии с россиянским законом. Если у какого оператора ещё не пишется, в ближайшее время устранят отставание.
     

  • 1.8, proninyaroslav (ok), 14:07, 08/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    >сторонними разработчиками отдельно подготовлены модули для Rust и Go

    Однако странная позиция мозиллы. Вроде как они ратуют за использование раста в своих проекта, но при этом продолжают писать на си. Даже биндинги сделали сторонние разрабы. Насколько знаю, ABI раста нестабилен, поэтому сложно применять как библиотеку, но тогда почему до сих пор ABI не стабилизировался? Различные фишки развивают, но при этом такие базовые вещи как стабильный ABI обходят стороной. Позиционировать как замену си в таком случае бесмысленно.

     
     
  • 2.19, Аноним (19), 15:25, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Ответы на твой вопрос звучали тут уже тысячу раз, но их все удалил модератор Fourt. И ровно по той же причина не взлетела идея переписать Postgre на раст https://www.opennet.me/opennews/art.shtml?num=45826

    Поэтому попробуй догадаться сам.

     
     
  • 3.28, proninyaroslav (ok), 16:54, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > И ровно по той же причина не взлетела
    > идея переписать Postgre на раст

    Ну, одно дело переписать существующий код (что почти всегда бессмысленно). Другое дело начать разрабатывать новые продукты на расте, тем более в мозилле. А эта либа в разработке с 2016 года, раст же релизнулся версией 1.0 в 2015.

     
  • 3.36, Anonymoustus (ok), 18:10, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +4 +/
    Да уж, хрусты в своём унылом фанатизме превзошли даже пихтоновых обезьянок.

    На опеннете с модераторами просто беда. Вот прямо всё хорошо, а модераторы — хуже стихийного бедствия и казней египетских.

     
     
  • 4.74, Аноним (74), 13:52, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Конечно же правильно тот модератор пишется Forth.
     
  • 3.73, Аноним (74), 13:51, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Никогда не запомню что форт правильно пишется Forth.
     

  • 1.9, Аноним (9), 14:19, 08/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • –7 +/
    >предложенную исследователями из компании Baidu

    Теперь ещё кто-то будет вякать о том, что мурзиловцы не сливают данные? Да гугл это невинная девственница, против байду. Оно не просто собирает данные, оно отсылает собранную информацию на серверы Baidu. При этом оно пренебрегает шифрованием вообще или использует очень слабые методы шифрования.

     
     
  • 2.17, Аноним (17), 15:20, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • –2 +/
    поддерживаю, сливают все они без исключений, но не припомню что тут кто то говорил  что мозила не сливает, говорят обычно сливают но меньше чем угол, тут согласен, но вот если угл дальше не льет ибо шарит, а вот мозила таки да льет дальше наверняка, да еще и на расте лол
     
  • 2.18, Аноним (4), 15:22, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +10 +/
    Baidu статью написали. Mozilla по ней сделала. Что за клоунаду вы тут развели?
     
     
  • 3.52, НяшМяш (ok), 02:10, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Гуглботам надо зарплату отрабатывать. В одном треде упомянули сразу Baidu, Mozillу и даже Rust. Кто-то получит премию за этот месяц.

    (во всяком случае я надеюсь, что люди не настолько отсталые, чтобы писать подобное не за деньги)

     
  • 2.48, Ordu (ok), 22:18, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Можно? Можно я вякну?

    Факты в студию. Мозилла имеет чёткую позицию в отношении того, какие данные она собирает и что она с ними делает. В частности она определённо и недвусмысленно заявляет, что третьим лицам эти данные не уйдут ни в каком виде. И до сих пор я не видел никаких фактов, которые бы противоречили заявлениям мозиллы.

     
     
  • 3.53, Аноним (53), 03:19, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > определённо и недвусмысленно заявляет, что третьим лицам эти данные не уйдут ни в каком виде

    Сколько тебе лет?

     
     
  • 4.69, Ordu (ok), 13:03, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • –2 +/
    >> определённо и недвусмысленно заявляет, что третьим лицам эти данные не уйдут ни в каком виде
    > Сколько тебе лет?

    Для тебя твой возраст является аргументом, доказывающим то, что мозилла сливает данные на сторону? Дедушка, вам пора прекращать сидеть в интернете, надо пить корвалол и смотреть телевизор. Грядки копать можно, но осторожно.

     
  • 3.84, Аноним (80), 01:05, 10/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > что третьим лицам эти данные не уйдут ни в каком виде.

    Естественно, только партнёрам. По крайней мере пока не "утекут" на флешке или через взлом.
    Уверен, что все "правильные" организации, которым нужны эти данные уже партнёры.

     
     
  • 4.85, Ordu (ok), 01:21, 10/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > Естественно, только партнёрам.

    Откуда дровишки? "Третья сторона", по определению, включает в себя и партнёров тоже, но у тебя видимо инсайдерская информация? Поделишься?

    > Уверен, что все "правильные" организации, которым нужны эти данные уже партнёры.

    И твоя уверенность основана на том, на том, что твоя голова покрылась сединами, как и у соседнего анонима? Или у тебя есть более существенные причины для уверенности?

    > По крайней мере пока не "утекут" на флешке или через взлом.

    Да, от этого не застрахован никто, и мозилла в частности.

     
     
  • 5.86, Аноним (80), 02:13, 10/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    понятия третья сторона и партнёры достаточно размыты в штатах , т е одно м... большой текст свёрнут, показать
     
     
  • 6.92, Ordu (ok), 12:16, 10/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    >> И твоя уверенность основана на том, на том, что твоя голова покрылась сединами
    > моя уверенность основана на опыте работы в одной из крупнейших в мире
    > компаний, где правая рука не знает, чем занята левая. Я не
    > работал в мазилла конечно, и если честно - брезгую туда соваться.

    Ну хоть один фактец о Мозилле? Хоть не очень существеный. Маааленькая утечка данных? Странное партнёрство с компанией, которая могла бы покупать данные? Ну или хотя бы один факт лжи в исполнении мозиллы, не важно по какой теме.

    > Возможно они там все белые и пушистые, но последние пару лет улучшения
    > в браузере как бы намекают.

    Последние несколько лет они собирают телеметрию и активно меняют браузер -- вполне укладывается в их легенду, не?

     
     
  • 7.93, Аноним (80), 14:06, 10/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > Ну хоть один фактец о Мозилле? Хоть не очень существеный. Маааленькая утечка данных? Странное партнёрство с компанией, которая могла бы покупать данные?

    Кто ищет, тот всегда найдёт, тут всё достаточно субьективно. Одни покеты чего стоят.
    Мне лень для тебя копаться в истории Мазиллы, сори.

     
     
  • 8.94, Ordu (ok), 14:48, 10/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Которую Mozilla купила, чтобы не было необходимости сливать данные третьей сторо... текст свёрнут, показать
     
     
  • 9.95, Аноним (80), 21:30, 10/12/2019 Скрыто ботом-модератором     [к модератору]
  • +/
     
     
  • 10.96, Ordu (ok), 21:52, 10/12/2019 Скрыто ботом-модератором     [к модератору]
  • +/
     
     
  • 11.97, Аноним (80), 22:39, 10/12/2019 Скрыто ботом-модератором     [к модератору]
  • +/
     

     ....ответы скрыты (15)

  • 1.11, крокодил мимо.. (?), 14:35, 08/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    кто-то уже сказал "Кортана"? нет? .. хмм..
     
  • 1.22, Аноним (22), 15:53, 08/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • –5 +/
    Breaking news: реализация написана на языке Python!! Тьфу ты.. неинтересно.
    Это можно было не упоминать вообще, или констатировать с сожалением. Современный кодэр, если не уеб-разработчик, ничего больше и не умеет, противно. А эсли и умеет, то ему не позволят эффективные менеджеры из Байды..
     
     
  • 2.24, Аноним (4), 16:13, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Ну раз такой умный, пойди на раст перепиши.
     
     
  • 3.25, Аноним (22), 16:25, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    А не подумал ли ты, что как раз "умных" может не интересовать ни первый, ни второй ЯП? ;)
     
     
  • 4.26, Аноним (3), 16:48, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Ну тут не много вариантов. Либо человек умный и берёт питон и си, Либо человек не умный и не берёт питон и си. Раст интересен, но только в теории. Будь он интересен практически, на нём бы уже написали что-нибудь помимо 1 quiche (например, графический тулкит).
     
  • 2.27, Аноним (-), 16:50, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +3 +/
    о, типичный иксперт опеннетов в области машинного обучения
     
     
  • 3.30, Аноним (22), 17:19, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • –3 +/
    Я ващет про обезьян, зачем ты сюда приплетаешь какую-то ерунду?))
     
     
  • 4.87, Аноним (80), 02:14, 10/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Он тоже про обезъян.
     

  • 1.37, Аноним (37), 19:03, 08/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Принципиально новый фаерфокс! Теперь и с голосовой телеметрией (ну, как всегда, чтобы делать продукт ещё лучше!)
     
     
  • 2.38, Аноним (4), 19:17, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Если бы была голосовая телеметрия, дейтасеты не были бы такими куцыми.
     
     
  • 3.42, Аноним (3), 20:25, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Пусть спросят у яндекса или гугла, те пишут звук круглые сутки.
     
     
  • 4.43, Аноним (4), 20:36, 08/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Так они их своим конкурентам и дали.
     
  • 3.70, Аноним (37), 13:23, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    А у вас есть доступ к полным? Ибо то, что они выкладывают публично не означает, что это всё что у них есть.
     

  • 1.41, Аноним (41), 20:23, 08/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Какие же вы всё-таки идиоты, товарищи комментаторы.
    Вам было бы идеально с бубнами из компакт-дисков в серверной, как кощеям, над вашими серверами чахнуть и на люди не показываться.
     
  • 1.44, Аноним (44), 20:57, 08/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    Почему ему нельзя аудиокниги подсовывать?
     
     
  • 2.50, asdf (?), 00:32, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Наверное, нужна определённая лицензия на эти данные.
     
     
  • 3.79, Аноним (4), 20:23, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Нужна не лицензия, а очень дорогой юрист. Кому надо - тот давно подсовывает (не голос, а текст худ. литературы), причём в открытую, но судиться с ними просто сумасшедших нет - даже если корпорация иск проиграет, истцу может такая ответка прилететь, что продажи сильно просядут, и сделать с этим истец ничего не сможет, кроме как пойти поныть конгрессменам. А конгрессмены его слушать не будут.
     
     
  • 4.89, Аноним (80), 02:20, 10/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Да ладно, если сор из избы не выносить - то можно, если что - мы не знали, а вся отвественность на контракторах. Если код так пишут, почему нельзя ИИ тренировать?
     

  • 1.47, corvuscor (ok), 22:06, 08/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Вижу, разрабы до сих пор не рассматривают принципиальной возможности сборки TensorFlow c поддержкой OpenCL. Онли CUDA.
    Так опенсорсно.
     
     
  • 2.62, Аноним (62), 11:21, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Потому что только куда имеет смысл. Опенцл - детская поделка на ее фоне.
     
  • 2.63, Аноним (63), 12:27, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Модель можно экспортировать в ONNX, из ONNX перевести в любой из как минимум 2х тулкитов для под OpenCL (один из которых ещё и умеет в обучение на  OpenCL, но имеет отвратительную лицензию AGPL, второй же имеет пермиссивную лицензию, но годится только для inference и вообще пилится исключительно под нужды крупных корпораций (отсюда поддержка SGX и TrustZone, чтобы злые пейраты не вытащили модели, на сбор дейтасетов для которых и обучение которых бедные корпорации затратили миллионы долларов, и теперь законно хотят всех нагибать)).
     

  • 1.51, аноним3 (?), 01:31, 09/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    предлагаю особо ревностным комментаторам зачитать мурзилловцам русские народные сказки. так сказать продвинуть культуру в массы)) причем с большим количеством старославянских слов. пусть их движок помучается))
     
     
  • 2.90, Аноним (80), 02:21, 10/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    предлагаю по ролям начитывать комментарии с опеннета. Намного круче сказок.
     

  • 1.54, Аноним (54), 07:10, 09/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +4 +/
    Такая слабая производительность достаточна Неужели Может, и на Pentium 3 завед... большой текст свёрнут, показать
     
     
  • 2.57, Аноним (4), 09:51, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    >Такая слабая производительность достаточна? Неужели. Может, и на Pentium 3 заведётся?

    Инференс относительно обучения очень лёгкий.

     
  • 2.59, Zenitur (ok), 10:16, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    )) Покупать топовые процы на релизе? Это такой особый вид извращений? Это всё равно что купить AMD64 на релизе в 2003 году, ещё на сокете 754, чтобы установить туда 64-битную систему. И ждааааать, когда же она выйдет?
     
  • 2.60, Аноним (60), 10:58, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Покупай середнячки и не парься. Всё равно в будущем апгрейдиться.
     

  • 1.58, Аноним (58), 10:08, 09/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +4 +/
    мозилла: *выкладывает опенсорсный проект, позволяющий запилить качественное распознавание речи на своем собственном железе, не сливая ничего в интернет, в отличие от всяких гуглов с амазонами*

    эксперты с опенка: "фи, не нужно, почему не на <название_языка>". Все как обычно.

     
     
  • 2.61, Аноним (60), 10:59, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Кстати о <название_языка>. Эсперанто есть?
     

  • 1.65, InuYasha (?), 12:33, 09/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Почему просто не скормить этой приблуде звуки и субтитры из какого-нибудь Скайрима? Качественные записи, хорошие субтитры. И ещё 10 подобных игр.
    Ой-вей... питонище. Ладно, забудьте.
     
  • 1.66, Аноним (67), 12:35, 09/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Сири, Алиса... А как мозилловскую барышню звать будет, Мурзилла?
     
     
  • 2.68, Аноним (60), 12:45, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Зе Мамзелька.
     
  • 2.77, Аноним (4), 18:38, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • –3 +/
    У мозиллы нет поисковика. И основной контингент любителей мозиллы - мужчины. Поэтому у мозиллы не будет барышни. Хотя на крайняк можно мужской голос нейросетью переделать в голос гея и трансгендера-бывшей лесбиянки - всё как SJW любят.
     

  • 1.71, Аноним (37), 13:24, 09/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Пора делать форк DeepThroat
     
  • 1.72, 1 (??), 13:40, 09/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Дайте URL сервиса для создания титров !!!
    пжлста !
     
  • 1.78, jrthw (??), 19:46, 09/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Попробовал зайти на сайт коммонвойса...

    Господа, у кого это уё... чудо сайтостроения всё-таки показало список языков - там японский есть?

     
     
  • 2.82, Аноним (4), 23:31, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    https://voice.mozilla.org/ja
     
  • 2.83, Аноним (4), 23:32, 09/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Признавайся, вокалоидов решил подсунуть?
     

  • 1.91, Аноним (91), 10:02, 10/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Забавно Для предыдущей ветки ты такой напрягался, потратил стотыщпицот часов об... большой текст свёрнут, показать
     
     
  • 2.98, Аноним (80), 23:34, 10/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Правильно, если исключить твои фантазии про туалет. Добро пожаловать в Agile world.
     
     
  • 3.99, Аноним (99), 01:52, 11/12/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Так ради этого туалета всё голосовое управление и затевалось. Бедная у тебя фантазия. На даче нет ничего важнее сортира. Разве что ещё туалетная бумага в нем.
     
     
  • 4.101, anonymous (??), 17:43, 11/12/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Не обновляй ПО туалета. Глядишь, без новых свистелок и перделок проживёшь.
     

  • 1.100, Аноним (100), 16:27, 11/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    А собсна зачем? Бубнить *ок гугл* в лису? ну ващще..
     
  • 1.102, Аноним (102), 20:11, 15/12/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Бесполезно без понимания программой контекста
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру