The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Компания Mozilla представила систему синтеза речи LPCNet

20.11.2018 20:43

Компания Mozilla развивает новую систему синтеза речи LPCNet, которая дополняет ранее запущенную инициативу по разработке системы распознавания речи. LPCNet обеспечивает более эффективный синтез речи благодаря комбинированию традиционных методов цифровой обработки сигналов (DSP) с механизмами синтеза на основе машинного обучения. Исходные тексты реализации LPCNet распространяются под лицензией BSD.

Несмотря на то, что современные модели синтеза речи на основе нейронных сетей, такие как WaveNet, позволяют добиться превосходного качества синтеза, их реализация сильно усложнена и требует большой вычислительной мощности. Данная особенность затрудняет использование подобных систем для синтеза речи в режиме реального времени на таких устройствах, как телефоны.

В качестве выхода в LPCNet предлагается использовать DSP для LPC-фильтрации (Linear Prediction) и моделирования вокального тракта с последующей обработкой полученных параметров в рекуррентной нейронной сети. Особенностью LPCNet является то, что вместо передачи в нейронную сеть только выбранных сэмплов, производится приблизительное прогнозирование следующего сэмпла, что позволяет заметно сократить размер нейронной сети и уменьшить необходимые для её работы ресурсы. Таким образом, с нейронной сети снимается работа по моделированию вокального тракта и остаётся только задача корректировки проблем при прогнозировании.

Помимо синтеза речи LPCNet также может применяться и в других областях, требующих повышения качества голосового сигнала. Например, LPCNet подходит для создания технологий сжатия речи для передачи по низкоскоростным каналам связи (уже развивается соответствующий кодек), для устранения шумов, для изменения скорости воспроизведения речи, для фильтрации результата работы различных кодеков и для синтезирования недостающих фрагментов, утерянных из-за потери пакетов.

Код реализации LPCNet написан на языке Си с использованием Keras, высокоуровневого фреймворка для построения нейронных сетей, который может работать поверх TensorFlow, CNTK и Theano. Для работы требуется GPU (достаточно GT1060, но для обучения модели рекомендуется использовать более мощный GPU с поддержкой CUDA и CUDNN, например GTX 1080 Ti). Для загрузки доступны уже готовые модели, натренированные на голосовых данных от лаборатории университета Макгилла. Систему можно обучить и на своих данных, для этого потребуется несколько часов аннотированных записей голоса (например, можно научить LPCNet синтезировать речь любым голосом).

  1. Главная ссылка к новости (https://hacks.mozilla.org/2018...)
  2. OpenNews: В ночных сборках Firefox появилась поддержка синтеза речи
  3. OpenNews: Mozilla развивает свою систему распознавания речи
  4. OpenNews: Проект Mozilla выпустил открытую систему распознавания речи
  5. OpenNews: Facebook открыл систему распознавания речи Wav2Letter
  6. OpenNews: Mozilla рассматривает возможность создания системы голосовой навигации для браузера
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/49639-mozilla
Ключевые слова: mozilla, voice
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (89) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, timur.davletshin (ok), 21:14, 20/11/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +11 +/
    Достаточно GT1060 для работы синтеза речи? Да вы поболели там чтоли? У меня 16-18 лет назад синтезатор речи на компьютере уровня второго пня работал если и чуть хуже, но не кардинально для понимания.
     
     
  • 2.2, Ilya Indigo (ok), 21:20, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Мне на линуксе до сих пор Алёны не хватает. :-(
    http://hire7.net/2008/08/18/golosovojj_dvizhok_acapela_alyona_russkijj.html
     
     
  • 3.3, timur.davletshin (ok), 21:29, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Честно говоря, сейчас я им не пользуюсь. Но тот, что стоит по-умолчанию в Debian — это тихий ужас, festival в 10 раз лучше.
     
     
  • 4.4, 84701 (?), 21:38, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • +7 +/
    под линукс есть только один синтезатор на русском нормальный ,на сколько я знаю, - это RHVoice. Мозиловцы лучше бы сделали нейросеть которая анализирует на видеокарте аудиозапись речи и созадёт файл для фестивала или flite с голосом, который работал бы без видеокарты,а то что они придумали это лажа...
     
     
  • 5.6, Vitaliy Blats (?), 21:50, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > под линукс есть только один синтезатор на русском нормальный ,на сколько я знаю, - это RHVoice. Мозиловцы лучше бы сделали нейросеть которая анализирует на видеокарте аудиозапись речи и созадёт файл для фестивала или flite с голосом, который работал бы без видеокарты,а то что они придумали это лажа...

    Плюсую за RHvoice

     
     
  • 6.17, Константавр (ok), 23:23, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Сам синтезатор может быть очень хорошим, но если его интеграции нигде нет, то как пользоваться?
     
     
  • 7.18, Vitaliy Blats (?), 23:30, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • –2 +/
    > Сам синтезатор может быть очень хорошим, но если его интеграции нигде нет, то как пользоваться?

    Тут собственно вопрос не в интеграции, а в простом человеческом ненужно.

    Я не знаю например ни одного реального юзкейса применения синтезатора кроме интерактивных автоответчиков. А ты ?

    Там где нужен голос - проще записать несколько дорожек на все случаи жизни.

    Но все равно область применения этого всего я представляю смутно. Одно время пробовал повесить RHvoice на мою самописную тулзу для мониторинга серверов (аки Nagios). Классно. Если друзьям показать. А вот если с этим находиться в одной комнате, то уже все не так радужно.

     
     
  • 8.19, Аноним (19), 23:51, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Книги, сайты читать, не ... текст свёрнут, показать
     
     
  • 9.27, Vitaliy Blats (?), 02:32, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Не Во-первых, ты уверен что хочешь слышать все что выводит сайт форумы поиск р... текст свёрнут, показать
     
     
  • 10.36, Константавр (ok), 08:43, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Иногда нужно просто прочитать текст Не важно как Хоть почту зачитать, Хочу пос... текст свёрнут, показать
     
     
  • 11.39, нах (?), 10:02, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +6 +/
    я тоже не понимаю, зачем весь этот прогресс - еще три тысячи лет назад раб прекр... текст свёрнут, показать
     
     
  • 12.46, hokum13 (?), 11:55, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Раб - не человек Раб - вещь Раба можно купить, продать, утилизировать не убит... текст свёрнут, показать
     
     
  • 13.71, нах (?), 12:58, 22/11/2018 [^] [^^] [^^^] [ответить]  
  • –1 +/
    и чего - быть прикованным к монитору вам больше нравится, чем читать свитки хоро... текст свёрнут, показать
     
  • 10.40, MihaNix (?), 10:13, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Не мало людей с проблемами по зрению ... текст свёрнут, показать
     
     
  • 11.47, Аноним (47), 12:37, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Но ведь здоровые о них никогда не думают, пока сами не ослепнут, верно ... текст свёрнут, показать
     
  • 11.53, Vitaliy Blats (?), 15:45, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    И ты хочешь чтобы к ним добавились проблемы со слухом ... текст свёрнут, показать
     
     
  • 12.77, Pilat (ok), 23:49, 22/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Я помню своего деда, постепенно теряющего зрение Этого мне достаточно чтобы пон... текст свёрнут, показать
     
     
  • 13.79, Vitaliy Blats (?), 03:09, 23/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    spp exe Эх ты, поколение ВНО ... текст свёрнут, показать
     
     
  • 14.90, Pilat (ok), 10:40, 08/02/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Я даже помню этот жуткий голос из спикера Это не TTS ... текст свёрнут, показать
     
  • 10.43, DenisLp (?), 11:15, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • –7 +/
    Интонации Ударения Повышение и понижение голоса в зависимости от сцены Это в... текст свёрнут, показать
     
  • 10.45, hokum13 (?), 11:51, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Читал много фантастики Говорилкой Сначала и как говорили со стороны - полна... большой текст свёрнут, показать
     
     
  • 11.58, Аноним (58), 21:12, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Обалдеть Раньше нам обещали что компьютеры будут всё умнее и ИИ поможет жить и ... текст свёрнут, показать
     
  • 11.73, Урри (?), 13:16, 22/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Знаю я одного такого Он через неделю сам стал говорить как эта говорилка - равн... текст свёрнут, показать
     
     
  • 12.74, Аноним (74), 21:05, 22/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    не показатель, проф чтеца слушать трудно, он неискреннен, он слишком присутству... текст свёрнут, показать
     
  • 12.75, DenisLp (?), 21:49, 22/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Во первых, Говорилка это просто GUI, а не движок, во вторых, профессиональные дв... текст свёрнут, показать
     
  • 11.78, Сергей (??), 01:44, 23/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Действительно после 10 часов за чтением нормативной документации на работе, прос... большой текст свёрнут, показать
     
  • 11.84, Аноним (-), 10:53, 02/12/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Ну не, так не пойдет Такой голосовой интерфейс создает больше проблем чем решае... текст свёрнут, показать
     
  • 10.80, Вулх (?), 18:39, 23/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Какая интонация, какие ударения, я книги читаю молча, никому в поезде не интерес... текст свёрнут, показать
     
  • 10.89, neit95 (ok), 03:04, 06/01/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Некро, но отпишусь Соглашусь по поводу книг Как-то немного удосужился поиграть... текст свёрнут, показать
     
  • 8.22, Константавр (ok), 00:02, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Я с грустью вспоминаю кнопку в Konqueror Зачитать текст Поскольку система TTS... текст свёрнут, показать
     
  • 8.32, КГБ СССР (?), 07:07, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Область применения таких вещей 8212 нагружать всякой разрекламированной чепух... текст свёрнут, показать
     
     
  • 9.49, Попугай Кеша (?), 13:18, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Это просто называется искусственным спросом, чтобы стимулировать продажи Таково... текст свёрнут, показать
     
     
  • 10.83, Аноним (-), 10:50, 02/12/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Однако ж в этом есть и рациональное зерно - Компьютер, свет - Исполняю А по... текст свёрнут, показать
     
  • 8.37, Ilya Indigo (ok), 09:11, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • –3 +/
    1 Вы, а не ты 2 Книги, документы, мессенджеры, да эти же комментарии 3 У фести... текст свёрнут, показать
     
  • 8.48, Аноним (47), 12:43, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    А я хотел бы, чтобы мой смартфончик читал мне в поездке мануал pdf на новую желе... текст свёрнут, показать
     
     
  • 9.82, Аноним (-), 10:48, 02/12/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Очень интересно как должно выглядеть чтение скриншота, диаграммы, схемы и тому п... текст свёрнут, показать
     
  • 8.50, Crazy Alex (ok), 13:39, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Тут сфера применения - разного рода умные помощники - от алексы сотоварищи до ... текст свёрнут, показать
     
  • 7.81, Аноним (81), 10:45, 02/12/2018 [^] [^^] [^^^] [ответить]  
  • +/
    > Сам синтезатор может быть очень хорошим, но если его интеграции нигде нет,
    > то как пользоваться?

    А там многое сделано для того чтобы интеграции и не было. Какая-то навороченая плюсятина, с какой-то жутко экзотичной билдсистемой. Захочешь не заинтегрируешь, потому что это явно не предусмотрено.

     
  • 5.7, Аноним84701 (ok), 21:50, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • +7 +/
    > Мозиловцы лучше бы сделали нейросеть которая анализирует на видеокарте аудиозапись

    Лучше бы они сделали нейросеть, которая сама пишет браузер …  

     
     
  • 6.9, нах (?), 21:54, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • +3 +/
    так они, походу, уже сделали. Вот такую фигню и пишет, как и разговаривает.

     
     
  • 7.33, КГБ СССР (?), 07:10, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Нейросеть эта, что характерно, частью родом с Индостана, а частью из феминизма.
     
  • 5.29, Анонимный прохожий (?), 05:26, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Мозиловцы лучше бы сделали...
    > ...а то что они придумали это лажа...

    Каждый диванный анон лучше знает, чем заняться другим.

     
     
  • 6.30, Аноним (30), 05:36, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    В случае мозилловцев так и есть. Они давно уже не в ту степь бегут.

    если я, вместо того, чтобы оперировать каждый вечер, начну у себя в квартире петь хором, у меня настанет разруха. Если я, входя в уборную, начну, извините за выражение, мочиться мимо унитаза и то же самое будут делать Зина и Дарья Петровна, в уборной начнётся разруха. Следовательно, разруха не в клозетах, а в головах.

     
     
  • 7.67, Анонимный прохожий (?), 06:51, 22/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    > Следовательно, разруха не в клозетах, а в головах.

    Странноватый пример. Это же свободный проект - люди вольны делать то, что им хочется и в том виде, в каком считают правильным. Несогласные же, в свою очередь, или выбирают другой аналогичный продукт, или пишут свой собственный, если в силах. Мозиловцы не обязаны кому-то угождать, как и все другие.

     
     
  • 8.68, нах (?), 11:27, 22/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    это свободный проект на деньги мурзила-фоундейшн отдельный вопрос - откуда у ид... текст свёрнут, показать
     
     
  • 9.70, КГБ СССР (?), 12:34, 22/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Да-да, именно это Хоть и отгоняет конспирологией, но по-другому не объяснишь А... текст свёрнут, показать
     
  • 3.21, DenisLp (?), 23:54, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    "Мне на линуксе до сих пор Алёны не хватает."
    Ивона Татьяна ведь качественнее. А мне не хватает Лиама.
     
  • 3.24, DenisLp (?), 00:18, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • –1 +/
    "Мне на линуксе до сих пор Алёны не хватает"
    Акапеловские голоса, включая Алену, есть на андроиде, а его с натяжкой можно назвать Линуксом. Также есть на OS X https://www.assistiveware.com/products/infovox-ivox которую с натяжкой можно назвать Unix.
     
     
  • 4.60, Аноним (60), 21:27, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    OS X к Unix формально больше отношения имеет, чем Linux к Unix. :)
     
  • 2.31, iPony (?), 06:18, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    >  синтезатор речи на компьютере уровня второго пня работал если и чуть хуже

    Ну сказки рассказывать про "чуть"... Это на простых примерах ещё худо бедно сработает, иначе нет.

     

  • 1.5, Аноним (5), 21:40, 20/11/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    >Код реализации LPCNet написан на языке Си с использованием Keras

    ЩИТО?

    >Python 99.9% Other 0.1%

     
     
  • 2.8, Аноним (8), 21:54, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • +2 +/
    https://github.com/mozilla/LPCNet/tree/master/src
    на Python там только построение нейронной сети.
     
  • 2.11, Аноним (60), 22:07, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    >Keras is a high-level neural networks API, written in Python and capable of running on top of TensorFlow, CNTK, or Theano.

    )

     
  • 2.28, Аноним (28), 04:49, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Вы где взяли Python 99.9%?

    https://i.imgur.com/JMoxH7O.png

     
     
  • 3.41, Аноним (5), 10:13, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    https://github.com/keras-team/keras
     
     
  • 4.59, Аноним (60), 21:21, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    А ниже спускаться не пробовали?

    TensorFlow — С++, Theano — NumPy — C, CNTK — C++. Keras — это API для вышеприведённых фреймворков.

     
     
  • 5.61, Аноним (5), 22:22, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    речь шла о том, что штука написана на Си. Но из си не имеет смысла пользоваться керасом.
     
     
  • 6.64, Аноним (64), 01:32, 22/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Там на C они извлекают данные из файлов. А потом отдельным скриптом на гвидопыхе тренируется. Никто там не пытается запускать Keras из C. Там, по сути, три исполняемых файла, два из которых -- на Python.

    Формально штука написана на C и Python (Keras), получается.

     

  • 1.10, Аноним (10), 22:05, 20/11/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • –2 +/
    Время от времени Mozilla делает что-то реально полезное.
     
     
  • 2.85, Аноним (85), 10:58, 02/12/2018 [^] [^^] [^^^] [ответить]  
  • +/
    > Время от времени Mozilla делает что-то реально полезное.

    Я бы сказал что она делает что-то реально монструозное. Как эта помесь сей с питоном к которой без 1060 не подходи. Вспоминая как речь сносно синтезировали еще чуть ли не амиги с процами которые дохлее первопня в разы - ничего кроме фэйспалма сделать не получается. Куда и зачем все это адовое месиво фреймворков предлагается девать?

     

  • 1.12, corvuscor (ok), 22:14, 20/11/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +3 +/
    И конечно же, оно поддерживает лишь CUDA, причем для работы, а не только для обучения.
    Опенсорсность аж по монитору течет.
     
     
  • 2.13, Аноним (5), 22:25, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Не совсем верно. Есть реализации CUDA поверх OpenCL, народ говорит, что рабочие и что tensorflow пашет, есть фреймворки для вычислительных графов поверх OpenCL. Благодаря ONNX модели переносятся между фреймворками.
     
     
  • 3.23, Константавр (ok), 00:05, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Ага, надо просто научить пальцы изгибаться в обратную сторону.
     
  • 2.14, Stax (ok), 22:32, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Попробуйте на VUDA https://github.com/jgbit/vuda - может заработает?

    А вообще это не вина мозиллы. Они же не напрямую CUDA используют! NVidia очень хорошо вложилась в разработку библиотек, в итоге имеем TensorFlow, Theano и прочие, отлично работающие поверх CUDA. Что мешает компании из трех букв (либо кому-то еще) так же хорошо вложиться и обеспечить их работу поверх OpenCL?

    У текущих разработчиков на это определенно нет ресурсов, о чем они много раз говорили. Гугл спонсировать работу TensorFlow поверх OpenCL не планирует: https://github.com/tensorflow/tensorflow/issues/22
    Поддержка OpenCL в Theano весьма грустная: https://github.com/Theano/Theano/issues/2936 цитирую "We didn't had time to bring this to a usable state. We won't do it.".

    Возьмите и вложитесь в разработку! NVidia вот вложилась, предоставила общественности https://developer.nvidia.com/cudnn и пожинает плоды. У людей из оупенсорса, поддерживающих TensorFlow или Theano своих ресурсов на это не хватает. А мозилла тут вообще не причем, использует то, что есть. Хорошего фрейморка не поверх CUDA просто нет.

     
     
  • 3.35, КГБ СССР (?), 07:13, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    > Что мешает компании из трех букв (либо кому-то еще) так же хорошо вложиться и обеспечить их работу поверх OpenCL?

    Биржевые показатели курса акций Невидии. Имеющий глаза да видит. :)

     
     
  • 4.51, Stax (ok), 14:56, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    >> Что мешает компании из трех букв (либо кому-то еще) так же хорошо вложиться и обеспечить их работу поверх OpenCL?
    > Биржевые показатели курса акций Невидии. Имеющий глаза да видит. :)

    Ммм? Они намного лучше, чем у AMD. Правда, в последние пару недель опустились, когда стал ясен фейл с серией RTX, но это не имеет отношения к CUDA, машинному обучению, теслам и прочим серьезным вещам. Это мелочи, впрочим - снизят премию хуангу https://overclockers.ru/hardnews/show/94527/na-fone-snizheniya-vyruchki-mozhet и оно снова будет расти (впрочем, уже растет).

     
     
  • 5.54, КГБ СССР (?), 18:14, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Они сильно просели. Для акционеров нет ничего хуже такой динамики.
     
     
  • 6.55, Stax (ok), 18:26, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    > Они сильно просели. Для акционеров нет ничего хуже такой динамики.

    Да ну, вообще ни о чем. Все равно выше, чем было полтора года назад. При этом доходы растут; докинут еще на рекламу, будут RTX лучше брать и акции вверх пойдут. А пока это просто повод кому-то хорошо прикупить акций перед ростом.

    Вон у AMD обваливалось недавно значительно сильнее - с середины сентября по конец октября более чем в два раза упали. И ничего, пошло вверх.

     
     
  • 7.56, КГБ СССР (?), 19:56, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Не, это не флуктуация или спекуляция, а есть конкретная причина: Невидия наклепала продукции для майнеров, но реализовать её некуда. Затоварились ребята.

    Ещё и Apple посыпались акции. И тоже есть конкретная причина.

    Не хотелось бы обнаружить во всём этом закономерность, но таковая в принципе возможна: пузырь капитализации из завтрашних обещаний рано или поздно должен лопнуть. Вонять будет хуже, чем от доткомов. :)

     
     
  • 8.57, Stax (ok), 20:44, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Ну, пока цена акций все равно выше до-майнингового уровня ... текст свёрнут, показать
     
  • 2.34, КГБ СССР (?), 07:12, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Кто опенсоссам платит, тот их и опенсоссит.
     

  • 1.15, Аноним (15), 23:03, 20/11/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    а почему не rust?
     
     
  • 2.16, Аноним2 (?), 23:22, 20/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Next version
     
  • 2.26, Аноним (26), 01:04, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +6 +/
    Потому что им надо чтоб работало, а не пердолинг.
     

  • 1.20, DenisLp (?), 23:52, 20/11/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +3 +/
    "Систему можно обучить и на своих данных, для этого потребуется несколько часов аннотированных записей голоса"
    Круто, можно увековечить голос любимого человечка.
     
     
  • 2.25, Аноним (25), 00:35, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    А запинаться, говорить "эмм", "вобщем" и "короче" она тоже научится?
     
     
  • 3.42, анон (?), 11:03, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Да
     

  • 1.44, microcoder (ok), 11:41, 21/11/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Интересно, а можно ли проделать следующее. Какому-то Васе звонит его мама:

    - Как у тебя дела, сынок? У меня всё хорошо.

    Тут же в реалтайме синтезируется другая речь и сыну проигрывается голосом мамы:

    - Как у тебя дела, сынок? Вышли мне 1000 рублей на карточку 0001 0001 ...., приболела я...

     
     
  • 2.52, Аноним (52), 15:34, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    в ваших мечтах разве что ;)
     
     
  • 3.62, Аноним (5), 22:32, 21/11/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Это не в "мечтах". Одну знакомую 5 лет назад так развели. "Мама, я сбил человека" - всем известный уже развод того времени. Вот только позвонили и сказали голосом её сына, а человек был пожилой и от компьюторов далёкий, хотя программы для изменения голоса по по образцу (не такие совершенные, как на нейросетях, но всё же были) есть ещё с 2005 года. И человек вынес все деньги и драгоценности.
     
     
  • 4.86, Аноним (85), 11:02, 02/12/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Кстати прецеденты применения синтеза речи для всяких разных дел уже не редкость и не экзотика. Уж позвонить и общаться при помощи синтезатора, чтобы по голосу не узнали - баян из баянов, практиковавшийся лет 10+ назад.
     

  • 1.63, Ддд (?), 23:52, 21/11/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Сегодня выяснилось что Tensorflow либы для Го не работают тк гдето в недрах гугла чето перепахали и уже неск месяцев починить эту пое...нь не могут.
     
     
  • 2.69, нах (?), 11:30, 22/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    игогоши должны страдать
     
     
  • 3.87, Аноним (85), 11:04, 02/12/2018 [^] [^^] [^^^] [ответить]  
  • +/
    > игогоши должны страдать

    У любого хипста-софта период полураспада не более 2 лет. Любых пихтонрастов касается совершенно одинаково - наворотить гору байтов по быстрому на модную тему они могут. А майнтайнить это - оказывается, грязная и скучная работа, совсем не эпично, блин.

     

  • 1.72, DmA (??), 13:05, 22/11/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    синтез речи добавили, чтобы впендюрить в свой браузер  через месяц запись голоса и отсылать его на сервера гугла и мозиллы?
     
     
  • 2.76, DenisLp (?), 21:53, 22/11/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Синтез речи давно уже есть, даже на онтопике работает. А recognition api давно нужно добавить как в хроме, чтобы гуглопереводчику и речевым блокнотам звук скармиливать, а получать транскрипт и/или перевод.
     
     
  • 3.88, Аноним (-), 11:05, 02/12/2018 [^] [^^] [^^^] [ответить]  
  • +/
    > Синтез речи давно уже есть, даже на онтопике работает. А recognition api
    > давно нужно добавить как в хроме, чтобы гуглопереводчику и речевым блокнотам
    > звук скармиливать, а получать транскрипт и/или перевод.

    Чтобы рекапчу скармливать. А поди плохо, припахать гугла свою же капчу распознавать. Пусть у них роботы там порубаются на предмет кто кого.

     

  • 1.92, rvs2016 (ok), 15:34, 13/11/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Синтезатор мозиловский - это программа, которую можно установить к себе и озвучивать, например, тексты?
     
  • 1.93, Гасем (?), 19:01, 04/11/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    А что за модельку использует Апихост для клонирования голоса? Может кто знает, https://apihost.ru/voice-cloning/
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру