HomeРазноеПеревод со звуком голоса: Error 404 (Not Found)!!1

Перевод со звуком голоса: Error 404 (Not Found)!!1

Содержание

Перевод голоса и передача звука в стиле с помощью GAN

Дата публикации Nov 6, 2019

фотоМайкл МаасеннаUnsplash

Мы все слышали об имиджепередача стиляВыделение стиля из известной картины и применение его к другому изображению — задача, которая была достигнута несколькими различными методами.Генеративные Состязательные Сети(GANs вкратце) также используются на изображениях для генерации, преобразования изображений в изображения и многого другого.

Примеры передачи стиля изображения

Но как насчет звука? На первый взгляд, вы можете подумать, чтоаудио полностью отличается от изображенийи что все различные методы, которые были исследованы для задач, связанных с изображениями, также нельзя применять к звукам. Но что, если мы сможем найти способконвертировать аудио сигналык подобным изображению 2-мерным представлениям?

На самом деле, да, мы можем! Этот вид звукового представления — это то, что мы называем «спектрограмма», И это ключ, который позволит нам использовать алгоритмы, специально предназначенные для работы с изображениями, для нашей задачи, связанной со звуком.

Спектрограмма (источник)

Если вы новичок в мире обработки звука, вы можете не знать, что такое спектрограмма. Учитывая сигнал во временной области (1 измерение), мы хотим получитьчастотно-временное 2-мерное представление, Для этого мы применяем краткосрочныеПреобразование Фурье(STFT) с окном определенной длины для аудиосигнала, учитывая только квадратичную величину результата.

Невероятная иллюстрация того, как время и частота коррелируют сБумажная страница MelNet

Проще говоря, мы делим наши оригинальныеформа волнысигнал в куски, которые накладываются друг на друга, извлеките величинучастотав блоке (с преобразованием Фурье), и каждый результирующий вектор будет представлять столбец нашей окончательной спектрограммы. Ось X спектрограммы обозначаетвремяв то время как ось Y представляетчастота,

Чтобы сделать эти спектрограммы еще более полезными для нашей задачи, мы конвертируем каждый «пиксель» (или величину) вшкала децибел, принимая журнал каждого значения. Наконец, мы конвертируем спектрограммы вшкала мел, применяя блок фильтров расплава, что приводит к так называемому «Mel-спектрограммы».

Примеры mel-спектрограмм с логарифмической амплитудой

Это позволяет нам делать представления спектрограммыболее разумно для нашего человеческого понимания звукавыделяя амплитуды и частоты, которые мы, люди, более склонны слышать.

Также крайне важно отметить, что спектрограммы могут бытьповернулся назадв «слышимый»форма волныданные: это не будетидеальная реконструкция(информация о фазе отсутствует в наших спектрограммах величины), но благодаря алгоритму под названиемГриффин-Limмы можем приблизить фазу иRecreateреалистично звучащий звук.

Теперь, когда мы знаем, как представлять звуки в виде изображений, давайте немного повеселимся.

В этой статье я объясню, как построить и обучить систему, способную выполнятьпреобразование голосаи любой другой видпередача аудио стиля(например, преобразование музыкального жанра в другой). Метод в значительной степени вдохновлен недавними исследованиями вперевод из изображения в изображениеиспользование генерирующих состязательных сетей, главное отличие которых заключается в применении всех этих методов дляаудиоданные, В качестве бонуса мы сможем переводить образцыпроизвольная длинаЭто то, что мы не часто видим в системах GAN.

Чтобы вы немного поняли, что вы собираетесь изучать, вотдемонстрационное видеорезультатов, которые мы можем достичь с помощью этого метода.

В демо-видео вы можете слушать разныеголосовой переводпримеры, а также парупреобразования музыкального жанраВ частности, от джаза до классической музыки. Звучит неплохо, не правда ли?

Существует целый ряд различных архитектур из мира компьютерного зрения, которые используются для перевода изображений в изображения, и именно эту задачу мы хотим достичь с помощью нашегопредставления спектрограммаудио (скажем, речь).

Перевод изображения в изображение состоит впреобразование изображенияиз домена A (например, изображения кошек) в другой домен B (изображения собак), ахранение информации о контентеиз оригинального рисунка (выражение и поза кота). Наша задача практическито же самое: мы хотим перевести с динамика А на динамик B, сохраняя при этомлингвистическая информацияиз динамика А (сгенерированная речь должна содержатьте же словакак оригинальная речь от спикера А).

Архитектура CycleGAN

самый знаменитыйАрхитектура GAN, созданная для этой цели, может бытьCycleGAN, введенный в 2017 году и широко используемый с тех пор В то время как CycleGAN очень успешно переводит междупохожие домены(аналогичные формы и контексты), например, от лошадей до зебр или от яблок до апельсинов, он не дотягивает, когда идет дождь в очень разных областях, например, от рыб до птиц или от яблок до моркови.

Причина этогонедостатоктот факт, что CycleGAN сильно зависит отпиксельные потериили, другими словами, его потеря имеет тенденцию сводить к минимуму различия в значениях пикселей реальных и сгенерированных изображений: интуитивно, при преобразовании изображения объекта (например, яблока) в существенно другую область (морковь) нам нужно изменитьосновная формаисходного объекта иCycleGAN не может нам помочьв этом случае.

Пример перевода CycleGAN. (Зебра на Лошади)

Спектрограммы выступлений разных людей (или спектрограммы музыкальных произведений разных жанров) могут быть оченьвизуально разныедруг от друга: таким образом, нам нужно найти более общий подход к проблеме, который не подразумевает ограничения путем перевода между визуально схожими доменами.

Спектрограммы разных носителей или разных музыкальных жанров могут сильно различаться

Первоначально представленный здесь,TraVeLGAN(Transformation Vector Learning GAN) направлена ​​на решение именно нашей проблемы.

Примеры переводов TraVeLGAN от изображения к изображению с очень разными доменами

В дополнение к Генератору и Дискриминатору (или Критику), TraVeLGAN представляетСиамская сеть(сеть, которая кодирует изображения в скрытые векторы), чтобы позволить переводы междусущественно разные доменыподдержание отношения содержимого между исходным и преобразованным образцами.

Давайте узнаем, как именно работает TraVeLGAN.

Травелган архитектура

Наша цель — найти способ сохранитьотношениямежду исходными и сгенерированными выборками, не полагаясь на пиксельные потери (такие как ограничение согласованности циклов в CycleGAN), что ограничит переводы между визуально подобными доменами. Таким образом, если мышифроватьизображения (или спектрограммы) ввекторыкоторые захватывают их контентную информацию ворганизованное скрытое пространствомы можем поддерживать отношения между этими векторами, а не целыми изображениями.

Это именно то, чтосиамскийСеть позволяет нам достичь. Изначально сиамская сеть использовалась для распознавания лиц.изображение как входа такжевыводит один вектордлиныvec_len.Определение с функцией потери, какое изображениекодировки должны быть близки(изображения одного лица, например) в векторном пространстве и какие из них должны бытьдалеко друг от друга(изображения разных лиц) мы можеморганизовать скрытое пространствои сделать это полезным для нашей цели.

Сиамская сеть кодирует изображения в векторы

В частности, мы стремимся сохранитьвекторы преобразованиямежду парами кодировокравно: это кажется чрезвычайно трудным для понимания понятием, но на самом деле это довольно легкопонятный,

СG (X)как переведенное изображениеИкс(выход генератора),S (X)в качестве векторной кодировкиИкса такжеА1, А2два изображения из исходного доменасеть должна кодировать векторы, такие как:

(S (A1) -S (A2)) =(S (О (А1) -S (О (А2)))

Таким образом, вектор преобразования, который связывает кодировки пары исходных изображенийдолжен быть равнымв вектор преобразования между той же парой, переведенной генератором.

Это позволяетсохранить семантическую информацию(в отличие от CycleGAN, который сохраняет больше геометрической информации о содержимом с ограничением согласованности циклов) в переводе, что позволяет ограничитьболее «абстрактные» отношениямежду изображениями разных доменов.

Формально, чтобы сохранить информацию о содержании в переводе мы будемминимизировать евклидово расстояние и косинусное сходствомежду двумя векторами преобразования, так что обаугола такжевеличинаиз векторов сохраняются.

Формальная потеря TraVeL

Кроме того, важно уточнить, что обагенераторисиамскийсетьдолжны сотрудничатьдля достижения этой цели. Более конкретно, градиенты потерь TraVeL получаютbackpropagatedчерезобе сетии их веса обновляются соответственно. Таким образом, в то время как дискриминатор и генератор имеютцель состязания(они бросают вызов друг другу, чтобы достичь своей цели), сиамские и генераторпомогать друг другусотрудничая по тем же правилам.

В дополнение к этой потере «контента», генератор научится генерировать реалистичные сэмплы благодаря традиционнымсостязательная потеря(в своих экспериментах я использовал потерю шарнира)

Если вы новичок в GAN и как они работают, или если вы хотитенырни немного глубжев том, как сохранить информацию о содержимом со скрытым пространством, я рекомендую вампроверять, выписыватьсямоя статьяВото том, как применять те же приемы к простой задаче перевода изображения в изображение.

Теперь, когда мы исследовали метод, который позволяет намсохранить содержимоеИнформация в переводе, нам нужно понять, как мы можем преобразовать генераторобразцы(спектрограммы), которыесколь угодно долгобез дополнительных затрат времени на вычисления и обучение.

Допустим, у нас есть звуковой сигнал: «извлекая» спектрограмму сигнала, мы получаемизображение с одним каналом(отличается от традиционных 3-канальных RGB-изображений) сопределенная высотаЧАС(это зависит от размера прыжка, используемого для STFT) иширинаИксчтозависитна оригинальную длину аудио образца.

Тем не менее, работа с изображениями, которые имеютпеременные размерыкак известно,испытывающийзадача, особенно если мы не решаем эти размеры заранее. Вот почему мы будемТрещинавсе спектрограммы (формыXXhсИксчто меняется) вломтисопределенная ширинаскажемL, Отлично! Наш набор данных теперь состоит из спектрограмм источника и цели сизвестные размеры(LxH), и мы готовы перейти к следующему шагу.

Каждая спектрограмма в наборе данных имеет фиксированную высоту H и ширину L

Перед созданием нашего генераторагнам нужно указатьразмеры его входов, который в нашем случае будет(L / 2) хН, Другими словами, G будет принимать спектрограммы, которые имеютполовина шириныиз тех, в нашем наборе данных. Зачем? Потому что таким образом мы сможем заставить G перевестивесь оригиналXXhспектрограммычто мы ранее расстались. Давайте узнаем, как.

нашучебный трубопроводбудет состоять из следующих действий:

  1. ТрещинаисточникLxHспектрограммыв половине, получение(L / 2) хНспектрограммы
  2. Накорми парполовин к генератору и получитьпереведенные парыв качестве выходов
  3. Объединитьпереведенные половинки обратно к ихоригинальная форма(LxH)
  4. КормпереведенныйицельLxHспектрограммы к дискриминатору, что делает егоразличатьодин от другого и позволяясостязательная подготовка,

Иллюстрация учебного конвейера: разбиение, преобразование и объединение.

Заставить дискриминатора осмотретькаскадные «поддельные» спектрограммыа такжеСравнениеих к«Реальный»целевые заставляют генератор генерировать образцы, которыепри соединениивместе привести креалистическийспектрограммы.

Другими словами переведенный(L / 2) хНобразцы не должны представлятьразрывпо краям, которые сделали бы ихвыглядеть нереальнодискриминатору. Таким образом, это важноограничениеНа генераторе есть то, что позволяет нам переводить аудиосигналы любой длины из одного домена в другой.

После тренировки, когда хочетсяперевестипроизвольныйспектрограмма формыXXhгдеИксменяетсяи определяется длиной исходного аудиосигнала, это то, что нам нужно сделать:

  1. ТрещинаXXhспектрограмма в(L / 2) хНкуски, используя заполнение, еслиИксне вполне делится наЛ / 2
  2. Кормкаждый(L / 2) хНобразец к генератору для перевода
  3. Объединитьпереведенные образцы в оригиналXXhформа, вырезая лишнее, если использовалась прокладка.

Окончательный переведенный образец, после его возвращения кформа волныс алгоритмом Гриффин-Лим, не долженподарокразрывыи должен представитьтот же стилькак целевой домен (определенный голос или музыкальный жанр). Легко, не правда ли?

Примеры исходных и преобразованных спектрограмм: сцепленные образцы не представляют разрывов

Ранее мы узнали, как мы можемсохранить содержимоеиз исходного аудио образца (в случае речи это было быустная информацияв случае музыки это было бымелодияпесни) без ограничения перевода междувизуально похожие домены(спектрограммы разных голосов или музыкальных жанров могут быть чрезвычайно визуальнодругой) ипростой, но эффективныйТехника, которая позволяет нам конвертировать образцыпроизвольная длина,

Теперь пришло время поставить всевсе вместе,

Этоэкстрактиз моей статьи, которая представляет эту технику:

Собираем все вместе: сиамская сеть помогает сохранить контент, сохраняя векторную арифметику между исходными и преобразованными образцами

MelGAN-VC учебная процедура Мы разделяем выборки спектрограмм, подаем их в генератор G, объединяем их вместе и передаем полученные выборки в дискриминатор D, чтобы обеспечить возможность перевода выборок произвольной длины без расхождений. Мы добавляем сиамскую сеть S к традиционной архитектуре GAN генератор-дискриминатор, чтобы сохранить векторную арифметику в скрытом пространстве и, таким образом, иметь ограничение на низкоуровневый контент в переводе. Необязательное ограничение отображения идентификаторов добавляется в задачи, которые также требуют сохранения высокоуровневой информации (лингвистической информации в случае речевого перевода).

Кроме того, мы должны добавитьпотеря маржидля сиамской сети, чтобы избежатьвырождающийсяв изучениитривиальная функцияудовлетворить свою цель. Потеря запаса удерживает все векторы, создаваемые S, далеко друг от друга, так что сеть не может связать один и тот же точный вектор с каждым входом и должнаузнать значимые отношениясоздавая полезное скрытое пространство.

где дельта — фиксированное значение, а t — вектор преобразования.

Наконец, вотформальные потерииспользуется для обучения трех сетей:

Конечные потери для генератора G, дискриминатора D, сиамской сети S

Важно отметить, что добавленныйограничение идентичности(среднеквадратическая ошибка между выборками из целевой области и теми же выборками, переведенными генератором), полезна только в случаеголосовой переводгде лингвистическая информация должна быть сохранена и где нашипотеря контента(на основе векторных выходов сиамской сети)борьбачтобы захватить этивысокий уровеньИнформация.

Я рекомендую и приглашаю вас прочитатьмоя полная статьяесли вы ищете больше информации об этой конкретной технике или если вы предпочитаете болееформально-методическийобъяснение.

Сегодня мы научились выполнятьголосовой перевода такжепередача аудио стиля(например, преобразование музыкального жанра) с использованием глубоко сверточной архитектуры нейронной сети и несколькихтрюки и приемыдостигатьреалистическийпереводы насколь угодно долгоаудио образцы.

Теперь мы знаем, что мы можемлевереджбольшая частьнедавние исследованияна глубокое обучение длякомпьютерное зрениеприложения для решения задач, связанных саудио сигналы, благодаря представлению спектрограммы в эквивалентном изображении.

Наконец, я хотел бы в заключение признать тот факт, чтоВоспользовавшись Первойэтот и другие методы дляцели с плохими намерениямивозможно, особенно в случаеголосовой перевод, Сподниматьсямощных методов машинного обучения для созданияреалистичные поддельные данныемы все должны быть оченьосознанный и осторожныйпри изучении и использовании такого рода алгоритмов: и покаисследование не остановится и не должно быть остановленоМы также должны распределить ресурсы и выяснить, какобнаружить поддельные данныечто мы помогли создать.

Большое спасибо заваше драгоценное внимание, повеселись!

Постскриптум Если вызаинтересованы в ГАНи GAN связанынестандартные идеии приложения, вы также должныпроверять, выписываться:

10 уроков, которые я выучил, обучая GAN за год(если вы заинтересованы в советах и ​​хитростях, которые помогут вам в супер-сложной задаче — обучении GAN)

Передача стиля с помощью GAN на изображениях HD(где я использую подобную технику, чтобы позволить передачу стиля больших изображений с очень маленькими вычислительными ресурсами)

Новый взгляд на ГАН(где я подробно изучаю, как работает скрытое пространство и как его можно использовать для задачи перевода из изображения в изображение)

Синтезирование аудио с генеративными состязательными сетями(где я исследую статью, в которой предлагается использование сверточных GAN для генерации звука с использованием необработанных данных формы волны и одномерных сверток)

Оригинальная статья

перевод на английский, синонимы, антонимы, примеры предложений, значение, словосочетания

Стоит им услышать звук моего голоса, пойдут за мной, как под гипнозом. Once they hear the sound of my voice, they’ll follow the piper.
Твое тело все глубже и глубже погружается в состояние релаксации, ты будешь отвечать только на звук моего голоса. As your body calmly drifts deeper and deeper into a state of peaceful relaxation, you will respond only to the sound of my voice.
К тому же, я перейду на шепот, так что к тому времени, когда звук моего голоса отразится от стен. In fact, I’m going to whisper. So that by the time my voice reverberates off the walls and gets back to me. ..
Звук моего голоса распространяется со скоростью 360 м/с The sound of my shout spreads at 360 meters per second along the boulevard.
Другие результаты
Вторая, более короткая, всего в долю секунды — это звук двух чёрных дыр, которые в эту долю секунды осуществили выброс энергии, сравнимый по мощностью со взрывом трёх солнц, превращающимся в энергию по известной формуле E = mc2. The second, shorter sound was the last fraction of a second of the two black holes which, in that fraction of a second, emitted vast amounts of energy — so much energy, it was like three Suns converting into energy, following that famous formula, E = mc2.
Но в итоге я проголосовала за Дональда Трампа, и для меня это скорее был голос за партию, чем за человека, особенно учитывая, насколько сильно эти выборы президента повлияют на нашу судебную власть. But ultimately, I did vote for Donald Trump, and for me it was really a vote for party over person, especially recognizing how important that presidential pick is on influencing our judicial branch.
Около 100 лет назад люди додумались, как записывать звук на восковой цилиндр. About 100 years ago, humans figured out how to record sound onto a wax cylinder.
И я начал делать что-то в поддержку протестов, то, что смогло бы стать оружием в духовной войне, то, что дало бы людям голос, то, что дало бы им силы двигаться дальше на своём пути. So I started making things specific to the protest, things that would be weapons in a spiritual war, things that would give people voice and things that would fortify them for the road ahead.
Это всё тот же завораживающий звук, который вы уже слышали, который все обожают. This is all the charming sound that you heard before that you all love.
С развитием соцсетей у меня появились возможность и платформа, чтобы обрести голос как блогеру и как активистке, но одновременно меня тревожит, что из-за них я могу стать мемом или вирусной сенсацией, и всё это без моего на то согласия. With the rise of social media, it has given me an opportunity and a platform to have a voice as a blogger and as an activist, but it has also made me nervous that I might become a meme or a viral sensation, all without my consent.
А теперь я дам вашим ушам немного отдохнуть и отключу звук видео. I’m now going to save your ears for the next short piece and talk over it.
Она повернулась и спросила: «Доктор, что это за звук?» She turned to me and she said, Doc, what’s that sound?
Для морских млекопитающих, которые живут под водой, где химические сигналы и свет передаются слабо, ориентиром служит звук. For marine mammals that live underwater, where chemical cues and light transmit poorly, sound is the sense by which they see.
Звук в воде передаётся очень хорошо, намного лучше, чем в воздухе, поэтому звуки могут быть услышаны на больших расстояниях. And sound transmits very well underwater, much better than it does in air, so signals can be heard over great distances.
Помните, что звук — самое важное чувство для этих животных. Remember, sound is the most important sense for these animals.
Малыш любит и узнаёт папу и маму через их прикосновение, их взгляд, их голос, их нежность. A child’s love for mom and dad grows through their touch, their gaze, their voice, their tenderness.
Его бесстрашный голос разума казался угрозой для политической элиты, и в 1929 году Иосиф Сталин расстрелял его. His fearless voice of reason was seen as a threat to the political establishment, and Joseph Stalin had him executed in 1929.
Это был звук нашей общей скорби, их объятия были как крепкие стены, удерживающие нас вместе. It was the sound of our grieving, the feel of their arms around me, the steady walls that held us together.
Повысив голос, он спросил: Эй, почему ты такая маленькая? And in a louder voice, he said, Hey, why are you so short?
Один звук соответствовал одной букве, а каждая буква представляла один звук, а те, которые не соответствовали ни одному звуку, должны были удаляться. Each sound was to correspond to one letter, each letter was to represent a single sound, and those which did not represent any sound should be removed.
Что ж, тогда вперёд, пожалуйста, поддержите женщин-творцов, покупайте их работы, дайте им знать, что их голос услышан, ищите площадки, на которых они могут проявить себя. Well then, please go forward, support women artists, buy their work, insist that their voices are heard, find platforms on which their voices will be made.
Я считала, что моя правота оправдывает мою грубость — жёсткий тон, повышенный голос, оскорбления, перебивание, — но это совершенно неэффективная стратегия. I thought my rightness justified my rudeness — harsh tones, raised voices, insults, interruptions — but that strategy is ultimately counterproductive.
Стали слышны звуки, как будто кто-то шепчет шшухх, — этот звук словно пронизывал меня. And I started to hear these sounds, this whoosh, kind of whisper, like something passing through me.
Особенно в случае успеха франшизы, как, к примеру, с фильмами Голодные игры, Идеальный голос или незначительный инди-фильм Звёздные войны: Пробуждение силы. Especially in the wake of franchise successes like The Hunger Games, Pitch Perfect or that small little indie film, Star Wars: The Force Awakens.
Последний раз я слышала голос сына, когда он вышел из дома и пошёл в школу. The last time I heard my son’s voice was when he walked out the front door on his way to school.
(Понизив голос) У него есть ещё одно довольно удивительное свойство. (In a lowered voice) It has another quite surprising quality.
Он совершенно изменяет звук вашего голоса. It changes the sound of your voice quite dramatically.
Шея одеревенела настолько, что я не могла наклонить голову, а малейшие звуки — шелест бумаги, звук шагов босых ног в соседней комнате — вызывали нестерпимую боль. My neck was so stiff I couldn’t touch my chin to my chest, and the slightest sound — the rustling of the sheets, my husband walking barefoot in the next room — could cause excruciating pain.
Другие же болели так сильно, что вынуждены были жить в темноте, не выносили звук человеческого голоса или прикосновения близких. On the other end of the spectrum, some were so sick they had to live in complete darkness, unable to tolerate the sound of a human voice or the touch of a loved one.
Но несмотря на панику, я услышала слабый внутренний голос, сказавший. But despite my panic, some small voice in my head thought, Wow.
Быстрая речь, чуть более высокий голос. They talk quickly with a little higher pitch.
Вы можете записывать звук, к тому же они добавили туда телефон. You can record, and oh, by the way, they also put a phone into this.
Идея, породившая флейту, — простое выдувание воздуха через отверстия, дающее звук, — со временем была переработана, и появился первый оргáн более 2 000 лет назад. The idea behind the flute, of just pushing air through tubes to make a sound, was eventually modified to create the first organ more than 2,000 years ago.
Я рассчитываю на равноправный голос с тобой и Кэри. I expect an equal vote with cary and you.
Тогда я поддержу твою идею и изменю свой голос. Then I will support your vision and change my vote.
В отдалении мужской голос громко звал кого-то. In the distance, a man called loudly to someone.
Её голос и её улыбка отражают её нежную душу Her voice and her smile reflect her tender soul
Мой голос был поразительно спокоен, почти лишен интонации. My voice was amazingly calm, almost empty of inflection.
И тут я услышала собственный голос, срывающийся на шепот. But I heard my voice escaping in a whisper.
До нее доносился голос монашенки, поющей лодочную песню. She heard a nun’s voice singing the boat song.
Трейси победила выборы с перевесом в один-единственный голос. Tracy had won the election by a single vote.
На этот раз был только голос и зеленоватое сияние. He was just a voice and a greenish glow.
Женщина на другом конце провода издала странный, шипящий звук. The woman on the other end of the phone hissed.
Ее нежный голос будит могучего тигра у меня в штанах. Her sweet voice wakes a mighty tiger behind my fly.
Тетушка Ада издала басовитый звук, свидетельствующий о безудержном веселье. Aunt Ada uttered a deep bass sound of ribald mirth.
Почему люди постоянно добавляют сексуальный голос к таким вещам? Why do people keep adding voices to these things?
Звук был похож на грохот товарного поезда в гулком тоннеле. It sounded like a freight train going through a tunnel.
Звук то ли плача, то ли сдавленного дыхания. A sound, a squeaking of breath, or weeping.
Широко открытые глаза и огромные уши повернулись на звук. Wide eyes and huge ears swung toward the sound.
Один звук в его устах может быть очень содержательным. He can make a single syllable sound very meaningful.
Самый примитивный звук, который можно получить вот таким образом. The most primitive sound you can get with this system.
Небесный голос Ирлио пришел с неба The heavenly voice of Yulryo came out of the sky.
Внезапно прерывистый, надрывный звук выровнялся и стал мягче. Suddenly that heavy, blatting sound diminished and smoothed out.
Раздавшийся в селекторе осипший голос мисс Глик звучал необычно тревожно. Miss Glick sounded a bit rattled over the intercom.
Негромкий голос Гора вновь приковал к нему все взоры. Horus’s quiet voice snapped all eyes back to him.
Поняв, что почти кричит, тут же понизила голос. She realized she had yelled and immediately lowered her voice.
Тебя выдал твой мелодичный голос и эта твоя особенная манера говорить. It’s your melodious voice that gave you away and that special way you speak.
Голос диктора: Внимание! Voice of the announcer: Attention, please!
Театр, конечно, фильмы, телевидение, иногда рекламные ролики, и даже закадровая работа для радио или на телевидении, или также иногда анимированные шоу, где вы одалживаете свой голос персонажам. There’s theatre, obviously, film work, television work, sometimes commercials and even voice-over work, which is for radio or for television or even sometimes animated shows where you lend your voice to those as well.
При ярком солнечном свете его голос был едва слышен. His voice was barely audible in the living daylight.

Произношение звуков английского языка


К сожалению, в русском языке звуков подобных [ θ ], [ ð ] нет.


Понять, как произносятся эти звуки, помогут данные ниже упражнения для органов речи.


  • Просуньте язык между зубами и продувайте воздух. Следите за тем, чтобы язык не был напряжён, а губы не касались краёв языка.

  • Просуньте язык между зубами, а затем быстро уберите его. Проделайте это упражнение несколько раз.


При произнесении звуков [ θ ], [ ð ] язык распластан и не напряжён, кончик языка находится между зубами.


Звук [ θ ] произносится как глухой, а звук [ ð ] с голосом как звонкий. Помните, что губы не должны касаться краёв языка. Cледует быстро убирать язык за зубы, чтобы не мешать произнесению последующего звука.


Эти звуки не следует заменять на русские [ с ], [ з ] или на английские [ z ], [ t ], [ d ].


Звуки [ θ ], [ ð ] можно услышать в следующих английских словах:







they [ ðei ] — они

thick [ θik ] — толстый

them [ ðem ] — им

thin [ θin ] — тонкий

then [ ðen ] — затем

myth [ miθ ] — миф

this [ ðis ] — этот

tenth [ tenθ ] — десятый

bathe [ beið ] — купаться

Timothy [ timəθi ] — Тимофей


На письме звуки [ θ ], [ ð ] обозначаются буквосочетанием th.


Звук [ ð ], как правило, звучит в служебных словах:


  • в определённом артикле the

  • в местоимениях this, that, they, them

  • в конце слов перед буквой e: bathe


Если буквосочетание th является окончанием для образования порядковых числительных, то оно произносится как [ θ ], например: tenth


Обратите внимание на разницу в произношении звуков [ θ ] — [ s ] — [ t ]:


Так как в русском языке нет звука [ θ ], то его стараются заменить либо на звук [ s ], либо на [ t ], что ведёт к грубому нарушению смысла.


Звук [ θ ] межзубный. При его произнесении кончик языка находится между зубами.


Звуки [ t ], [ s ] альвеолярные. При произнесении [ t ] кончик языка соприкасается с альвеолами. При произнесении [ s ] кончик языка поднимается к альвеолам.


Сравните:









feis ] — [ feiθ ]

face — faith

лицо — вера

mis ] — [ miθ ]

miss — myth

потеря — миф

tens ] — [ tenθ ]

tense — tenth

напряжённый — десятый

tin ] — [ θin ]

tin — thin

олово — тонкий

tru: ] — [ θru: ]

true — through

правдивый — через

tri: ] — [ θri: ]

tree — three

дерево — три

sik ] — [ θik ]

sick — thick

больной — толстый


Ввиду отсутствия звука [ ð ] в русском языке его часто заменяют звуками [ z ], [ d ], что ведёт к грубому нарушению смысла.


Звук [ ð ] звонкий межзубный согласный. Он произносится так же, как [ θ ], только с голосом.


Звуки [ z ], [ d ] являются звонкими альвеолярными согласными звуками.


Сравните:







beið ] — [ beis ]

bathe — base

купаться — база

bri:ð ] — [ bri:z ]

breathe — breeze

дышать — лёгкий ветерок

si:ð ] — [ si:z ]

seethe — seize

кипеть — хватать

ðei ] — [ dei ]

they — day

они — день

ðen ] — [ den ]

then — den

затем — берлога

Закадровый перевод зарубежных фильмов

Процесс перевода иностранного фильма на русский язык – то же элемент
постпроизводства. Работы по русскоязычному озвучанию иностранного фильма
попадают в одну большую обойму работ, связанных с постпродакшн. Говоря об озвучании
иностранных фильмов, надо различать актерский дубляж и дикторское закадровое
озвучание. Сюда также входит производство продукции рекламного характера –
рекламных телевизионных и кинороликов, а также телепередач и телевизионных
фильмов. Это частный случай общей технологии производства, и на определенных
видах работ опускаются какие-то отдельные этапы. Например, при закадровом
озвучании отпадает съемочный период и упрощается монтажнотонировочный.

«Нередко можно услышать от киногурманов, эстетов и ценителей кино, что
они предпочитают современному дубляжу именно закадровый перевод, а порой и
просто субтитры. Чем же им не угодил современный дубляж?

Ответ прост – дубляж не озвучивает ни интонации, ни мимики. Интонации в
современном дубляже просто нет, ни на переднем плане, ни на заднем. Русскую
фразу, предварительно адаптировав перевод, подгоняют под начало и конец
движения губ актеров и немного под паузы в словах. В результате чувствуется неприкрытая
фальшь, а киногерой просто говорит не своим голосом. Оригинальная интонация заменяется
приблизительно схожей интонацией актера-переводчика.

Единственный «верный» дубляж делали у нас в 70–80-х. Вот, скажем, фильмы
с Адриано Челентано («Блеф», «Укрощение строптивого»). В дубляж этих фильмов
вложен невероятный труд звукорежиссеров. После тщательнейшего перевода фразы по
сто раз перезаписывались, и под губы подгонялся каждый слог. Процесс был очень
долог и дорог. Кто ж теперь на это пойдет?

Однако у дубляжа есть и свои плюсы: обработка звучащей речи, то есть
привязка речи к пространству: близко или далеко звучит голос, внутри помещения
или снаружи – отличишь с закрытыми глазами. Нет явных понижений или повышений
громкости фона и музыки при сведении с голосом.

В отличие от дубляжа, при закадровом переводе происходит наложение русской
речи на речь оригинального языка. Чтобы русская речь была хорошо слышна, а
главное разборчива, нужно, чтобы в момент произнесения и немного раньше и позже
оригинальный трек был приглушен. Если во время диалогов играет музыка или
слышны шумы, они будут приглушены в момент речи, и это заметно и производит
неприятное впечатление. У зрителя как бы частично отнимают реалии фильма. Схоже
с ощущением ослепления дальним светом на трассе. При дубляже этой проблемы нет.

Так что же такое «правильный закадровый перевод»? И что нам нужно от
переведенного на русский язык фильма?

1. Чтобы был слегка слышен язык оригинала, избавляющий от чувства
обмана.

2. Чтобы саунд перевода был адекватен пространству. Если действие
происходит в пещере – значит, голос должен быть, как в пещере, с эхом. Если на
улице, там должны быть свои эффекты. Но об этом позже.

3. Чтобы не было явных провалов по уровню музыки и шумов во время
диалогов.

Первое условие априори выполняется при закадровом переводе. Достаточно двух-четырех
профессиональных актеров-переводчиков, чтобы красочно озвучить фильм. Это
немаловажно, ведь один монотонный голос испортит весь фильм. Сохранение
звучания оригинального языка не несет задачи передать все интонации. Повторюсь,
он нужен для ощущения целостности.

Второе условие–привязка голоса к пространству– дело не очень хитрое.
Добавить правильной реверберации и прибрать высокие частоты, если киногерой
далеко, или создать «телефонный» голос…

В некоторых качественно переведенных фильмах я встречал нечто подобное.
В остальных случаях голос просто обрабатывают под одну гребенку – он немного
удаленный и мягкий. И это в лучшем случае. Возможно, еще и поэтому в народе
закадровый перевод считается худшим и более дешевым вариантом, чем дубляж.
Уверяю – это стереотип, вызванный обилием «пиратских синхронок».

А вот третье условие – чтоб «без провалов» – это задачка, на первый
взгляд, невыполнимая. И на самом деле это так и есть. Но можно «обмануть» ухо.

Обман уха – это уже из области психоакустики и повсеместно используется
в сведении музыки. Основывается этот метод на том, что разные инструменты и
голос занимают свои зоны в частотном диапазоне. Близкие частоты, когда звучат
вместе, начинают «драться» между собой за «место под солнцем» – получается каша.
Так и два человеческих голоса не могут звучать на одной ноте и не создавать кашу
(речь не о пении, конечно, а о речи). Голос занимает не весь частотный
диапазон, воспринимаемый ухом. Диапазон музыки и шумов намного шире. При
создании оригинальной дорожки на этапе производства фильма это, разумеется,
учитывается, и поэтому в музыке немного «проваливают» средние частоты под
голос. Тогда он звучит разборчиво.

Впоследствии, когда накладывают сверху русский перевод, то просто плавно
приглушают весь оригинальный трек перед репликой и во время ее звучания, а
после возвращают прежнюю громкость. Это терпимо, но заметно, и звучит несколько
«дешево».

А что если так же, как и на этапе производства, приглушить только нужные
частоты, а не весь трек? Результат оказывается весьма недурен. Ритм музыки на
низах не пропадает, нет заглушения на верхах, шумовые эффекты остаются четкими
и заметными. Приглушается только оригинальный голос, и в эту нишу прекрасно
ложится трек начитки перевода.

Так выглядит оригинальная дорожка:

 

А так трек перевода:

 

Задача стоит – сделать русский язык разборчивым. Можно просто
перекричать оригинал, не меняя его громкости. На слух это звучит ужасно, даже
если сведенный сигнал и не перегружен (то есть не выходит за рамки допустимых
уровней для данной аппаратуры).

Выглядит это так:

 

Если не «переорать», то звучание будет неразборчивым: Если же сводить
по-обычному, то есть опасность, что мы можем потерять музыкальное соповождение
на репликах и будут заметны перемены в громкости, так называемые «фейды»:

А вот так будет, если просто приглушить нужные частоты:

 

Что же у нас получилось в результате предлагаемых манипулций со
звуковыми треками? Чуть-чуть «проглядывает» оригинал, сохраняя ощущение
подлинности; звучит голос переводчика, адекватный пространству кадра; сохранены
равномерный и достаточно громкий фон, музыка при четком звучании голоса переводчика.

Видимо, так и должны выглядеть правильный перевод и сведение фильма.»- написал А.Роман. «Размышления на тему закадрового перевода зарубежных кинофильмов». «Звукорежиссёр» № 2, 2009г.

«Перед актерами «закадрового» озвучивания стоит сложная задача — они
должны работать в очень узком диапазоне, как динамическом, так
и творческом. Как только актер нарушает границы этого диапазона,
он либо становится совершенно «безучастным» по отношению
к своему герою, либо начинает так «заигрываться», что готов уже заикаться
и чихать вместе с ним. Удержаться в этом диапазоне удается
далеко не всем.

Интересный факт — у многих актеров, с блеском работающих
в дубляже, «закадр» не получается, и наоборот, многие
«закадровые» актеры не тянут в дубляже — разная специализация.

При работе с актером обязательно необходим редактор, так как актеры
не слышат свои ошибки! Редактор должен постоянно контролировать актера его
речь и его «голосовую» игру, иначе либо получится брак, либо все придется
переделывать по многу раз.

Необходимо учитывать «плановость» в кино: на первом плане
должны быть диалоги героев, на втором — музыка и шумы. При
наложении закадрового комментария оригинальные диалоги уходят на второй
план, музыка и шумы — на третий, а с ними уходит
и живое дыхание фильма, его эмоциональность, его душа.

Ведь сколько раз приходилось видеть фильмы с почти бесшумными
грозами, беззвучными улицами, еле слышной музыкой, с немо разевающими рты
героями и с назойливо торчащими на фоне всего этого
«великолепия» голосами наших актеров!

Или другой пример — когда ведущий документального фильма говорит:
«здесь очень много змей, слышите, как они шипят?» Но сколько
ни напрягается зритель, никакого шипения он не услышит, как
не услышит и многих других звуков и шумов, без которых фильм
мертв и неинтересен. Для того чтобы он стал живым и документальным,
и трудились создатели фильма — записывали звук, монтировали,
микшировали. Те, кто работал в документалистике, знают, какая это трудная
и кропотливая работа.

И если голоса актеров хорошо подобраны, соблюден нужный баланс
на протяжении всего фильма, то вместе это и рождает ощущение той
органичности, когда после просмотра зритель даже не вспомнит, что
в оригинале-то герои фильма разговаривали на иностранном языке!

Конечно, многое зависит от качества перевода, его литературной
и стилистической стройности, «укладки», степени подготовленности
к прочтению его актерами, учета того факта, что и текст, и сам
фильм актеры видят и озвучивают впервые. И если зрители после
просмотра сетуют на то, что ничего не поняли из фильма —
это часто является следствием бездарного перевода. Ведь одно из правил,
которыми должен руководствоваться кинопереводчик в своей работе, это его
обязанность понять фильм и переводить не слова, которые произносят
персонажи фильма, а смысл того, что они хотели сказать. Переводчик должен
обладать хорошим знанием иностранного языка, но свой родной — знать
отлично!

Парадокс: русские люди, прожившие долгое время за границей,
прекрасно знающие иностранный язык, понимающие фильм, что называется
«с лету», — профессионально непригодны в качестве литературных
кинопереводчиков. Причина — в их изменившемся мышлении, что
выражается в неуловимо «нерусском» построении фраз, изложении диалогов.
Сами они этого уже не замечают, искренне удивляются: «А что здесь
неправильно?», а когда начинаешь объяснять — не понимают.

Другая встречающаяся при дубляже крайность — это звуковая «каша»,
когда толком не слышно ни русского, ни иностранного языка.
Но это уже «клинические» проявления, и они лежат за гранью
профессионального разговора.

Необходимо учитывать и психологию восприятия. Однозначно можно
сказать, что по восприятию хороший закадровый перевод всегда лучше плохого
дубляжа. Именно поэтому, например, во Франции и на телеэкране,
и в кинозалах идет много субтитрированных фильмов.

Хороший кинодубляж — это когда соединяются основные факторы,
определяющие конечное качество: перевод, «укладка», подбор актерского состава
и режиссура, студийная работа звукорежиссера. А ведь в дубляже
это и является той основной задачей, над которой надо потрудиться, чтобы
получить хорошо дублированный фильм, так как весь остальной звук фильма —
музыка, шумы и спецэффекты сделаны звукорежиссерами фильма (как правило,
с высоким качеством) в шестиканальном варианте Dolby Digital
и присылаются уже готовыми.

К сожалению, сплошь и рядом мы видим посредственный
дубляж с плохо подобранными, неестественно звучащими голосами
и «неуложенными» репликами. Именно отсюда и возникает ощущение
неорганичной, наспех сделанной работы (что часто и есть на самом
деле). Зритель при этом не замечает многих моментов, которые хорошо видны
профессионалам, но ощущение неорганичности, несовпадения голосов актеров
с их экранными героями создает у него ощущение недоверия,
неосознанной внутренней неудовлетворенности, что, в конечном счете, трансформируется
в неудовлетворенность от просмотренного фильма.

То, что некачественным дубляжем можно провалить даже очень хороший
фильм, — факт, подтвержденный десятками и сотнями примеров.

Поэтому достаточно часто самый важный процесс многоканальной записи, так
называемое «сведение», переносится на отдельный свободный день для того,
чтобы закончить эту работу с ясной головой. Существует даже такой термин,
используемый среди звукорежиссеров, — послушать на «свежее ухо».»- написал И.Сапожников. «Дубляж и закадровое озвучивание фильмов». «Звукорежиссёр»

Читать далее

от субтитров до полной локализации — Alconost

Если вам нужно перевести видеоролик, есть как минимум четыре способа сделать это: локализация, переозвучка, дубляж, субтитры. Рассмотрим специфику, преимущества и недостатки каждого варианта.

Локализация видеоролика

Локализация — самый полный вариант перевода видео. При локализации ролика изменения вносятся и в аудиоряд (перевод закадрового текста, перезапись диктора, новый монтаж музыки и фоновых звуков), и в видеоряд (замена видимых на экране надписей, подгонка длительности эпизодов под новую озвучку).

Вот классический пример локализации видео: англоязычный ролик полностью переведён на русский и китайский.

 

 

 

 

Работа над локализацией видео в Alconost обычно ведётся так.

Сначала мы «снимаем» закадровый текст, переводим его, при необходимости — адаптируем перевод и записываем дорожку диктора на новом языке.

Затем мы переводим и заменяем все текстовые элементы в видеоряде, при необходимости — обновляем скриншоты или видеозахваты и синхронизируем видео с новой дикторской дорожкой.

После этого мы заново монтируем музыку и звуковые эффекты, делаем сведение — и локализация готова!

Для наилучшего результата при локализации видеоролика необходим его исходник.

Что такое исходник ролика и зачем он нужен

Исходник — это проект видеоролика, где хранятся сотни, если не тысячи, его компонентов: разложенная по слоям графика, логотипы, скриншоты, 3D-модели, анимированные эффекты, траектории движения всех объектов, дорожка диктора, музыкальное оформление и многое другое.

Содержимое одного видеоролика может храниться в нескольких проектах. Например, в одном проекте — только исходная графика, во втором — только элементы 3D, в третьем — элементы анимации, в четвёртом — музыка и звуковые эффекты. А смонтировано и сведено всё в пятом проекте. При локализации ролика понадобятся все пять проектов.

В некоторых случаях возможно сделать локализацию видео без наличия исходника. Но качество результата будет зависеть от конкретного ролика и от того, какие именно изменения планируется вносить.

Зачем заменять элементы видеоряда при локализации

Замена текстовых элементов актуальна для всех типов роликов, но особенно — для видеоинфографики, где максимум смысловой нагрузки — как раз на диаграммах и текстовых расшифровках их значений.

Замена текста понадобится и в видеороликах-презентациях, если в них есть сцены, где функции или преимущества продуктов перечисляются списком.

Вот пример, где подписи, сопровождающие видеоряд, критически важны для понимания смысла.

 

 

 

Аналогичная ситуация — с видеороликами для игр. Будет логично, если язык игрового интерфейса на видеозахватах совпадёт с языком локализации ролика. Кроме того, игровому видеоролику может понадобиться замена логотипа, если на новом рынке игра выходит с локализованным названием.

Вот пример локализации ролика об игре с заменой логотипа.

 

 

Зачем изменять длительность сцен при локализации

Когда закадровый текст переведён на иностранный язык, а диктор-носитель языка записан, начинается трудоемкий, но важный этап локализации видеоролика — синхронизация видеоряда и новой дикторской дорожки.

Синхронизацию можно делать двумя способами. Первый — подгонка озвучки под видеоряд. Чтобы добиться совпадения, ограничение на длительность звучания каждой реплики нужно учитывать ещё при переводе, а затем — и при записи диктора. Иногда результат получается хорошим, а иногда — не очень. Если переведённая озвучка короче оригинальной, при сведении в дикторской дорожке появятся неуместные паузы. А если перевод пришлось сократить, чтобы вписаться в тайминг, то часть смысла текста может быть утрачена.

Фактически, первый способ синхронизации скорее относится к переозвучке ролика, чем к полной локализации видео.

Второй способ синхронизации — подгонка видеоряда под озвучку. В этом случае нужно ускорять или замедлять сцены в видеоряде, что технически усложняет процесс локализации. Зато в результате получается гармоничный ролик, в котором аудиоряд идеально сбалансирован с видеорядом. Без неуместных пауз, без накладок и без ущерба смыслу.

Мы предпочитаем второй способ.

Взгляните сами: при локализации видео с английского языка на немецкий ролик стал длиннее на 11 секунд, но благодаря корректировке длительности сцен диктор отлично совпал с анимацией.

 

 

 

 

Чтобы ускорять или замедлять сцены в роликах с анимированной графикой, достаточно только проекта видео. А вот для роликов с живыми съемками может понадобиться дополнительный исходник удлиняемого эпизода (то есть, его версия до монтажа).

Полноценная локализация помогает сделать ролик «родным» для иностранной аудитории. Но если у вас нет исходника ролика, нескольких недель времени и неплохого бюджета (да, локализация видеоролика — удовольствие не из дешёвых) — можно сделать переозвучку, дубляж или субтитры.

Переозвучка или дубляж видеоролика

Переозвучка или дубляж — это упрощённые варианты локализации ролика, предполагающие внесение изменений только в аудиоряд. Эти варианты можно реализовать без исходника и при более скромных, в сравнении с локализацией, затратах времени и бюджета.

Переозвучка видео — это полная замена всего аудиоряда. При переозвучке ролика заново записывается профессиональный диктор — носитель целевого языка. Подбирается новый музыкальный трек, добавляются новые звуковые эффекты.

Дубляж видеоролика — более экономичный вариант переозвучки. При дубляже новая дикторская начитка накладывается поверх существующего ролика, а оригинальные голоса приглушаются. Музыка и звуковые эффекты при переозвучке сохраняются оригинальные.

Недостаток переозвучки или дубляжа ролика в том, что надписи, видимые на экране, остаются без изменений, а длительность эпизодов не изменяется, из-за чего новая озвучка может синхронизироваться с видеорядом неточно.

Если ролик нужно перевести как можно быстрее и как можно дешевле, остаётся ещё один вариант — субтитры.

Создание субтитров

Субтитры обычно подходят для простых проектов или скромных бюджетов. При создании субтитров, как правило, переводятся только реплики диктора.

Вот что нужно, чтобы сделать субтитры.

  • «Снять» текст с видеоролика.

    То есть, превратить звучащий текст в печатный.

  • Перевести текст озвучки.

    Иногда перевод стоит немного сокращать, чтобы зритель физически успевал прочесть текст, сопровождающий эпизод.

  • Синхронизировать перевод с видеороликом.

    Для этого перевод разбивается на фрагменты по 5-15 слов; каждому фрагменту присваивается тайм-код (время появления и исчезновения фразы). Синхронизация необходима, чтобы каждая фраза в субтитрах совпадала либо с «родной» озвучкой, либо с соответствующим действием на экране.

Готовые субтитры лучше всего не вшивать в видео. А сохранить как отдельный файл (например, srt или txt). Ведь интерфейс Youtube позволяет добавить субтитры с переводом к уже опубликованному видео: значит, вам не придётся заливать новый вариант ролика и заново набирать просмотры и лайки.

Хотя субтитры отвлекают внимание от действия (зрителю приходится читать, а не наслаждаться просмотром), механически закрывают часть экрана и с непривычки мешают погружению в атмосферу ролика — у них есть и преимущества. Субтитры быстро делаются, относительно недорого стоят, легко внедряются и их удобно переводить на другие иностранные языки.

И преимущества, и недостатки субтитров хорошо видны в этих англоязычных роликах, к которым добавлены субтитры на русском языке (не забудьте нажать на значок-шестерёнку справа внизу и включить отображение субтитров на русском).

 

 

Рассчитать стоимость и заказать перевод ролика

Мы в Alconost готовы сделать для вас локализацию, переозвучку, дубляж или субтитры на любом иностранном языке. Обращайтесь!

При заказе локализации видео, пожалуйста, отметьте, есть ли у вас исходник ролика и какие именно изменения вы предполагаете внести.

Стоимость перевода видеоролика зависит от объема работы, от наличия и качества исходника и от общей продолжительности видео. Цена рассчитывается индивидуально для каждого заказа.

Нужно локализовать видеоролик?

Нейросеть подает голос. Неожиданные успехи искусственного интеллекта

https://ria.ru/20200715/1574349181.html

Нейросеть подает голос. Неожиданные успехи искусственного интеллекта

Нейросеть подает голос. Неожиданные успехи искусственного интеллекта

Российские издательства уже экспериментируют с машинной записью аудиокниг, в перспективе искусственному интеллекту можно будет поручить перевод сериалов и. .. РИА Новости, 15.07.2020

2020-07-15T08:00

2020-07-15T08:00

2020-07-15T19:49

проект 5-100

наука

it-компании

математика

физика

москва

/html/head/meta[@name=’og:title’]/@content

/html/head/meta[@name=’og:description’]/@content

https://cdn22.img.ria.ru/images/07e4/07/0d/1574294022_89:0:1511:800_1920x0_80_0_0_0f66699a49323f164fb0cee985da4761.jpg

МОСКВА, 15 июл — РИА Новости, Татьяна Пичугина. Российские издательства уже экспериментируют с машинной записью аудиокниг, в перспективе искусственному интеллекту можно будет поручить перевод сериалов и озвучку их голосами любимых актеров. Об особенностях таких технологий и сколько времени понадобится на их создание — в материале РИА Новости. Устная речь превращается в письменнуюНа YouTube автоматические субтитры для роликов создает программа распознавания голоса и перевода речи в текст. В ее основе — самообучающиеся нейросети. Этой опции более десяти лет, но результат все еще далек от идеала. Чаще всего удается лишь уловить общий смысл сказанного. В чем трудность?Допустим, объясняет Андрей Фильченков, руководитель лаборатории «Машинное обучение» Университета ИТМО, мы строим алгоритм для распознавания речи. Для этого требуется обучить нейросеть на большом массиве данных. Понадобятся сотни, тысячи часов записей речи и правильное сопоставление их с текстами, включая разметку начала и окончания фраз, смены собеседников и так далее. Это называется корпусом. Чем он больше, тем качественнее идет обучение нейросети, Для английского языка созданы действительно большие корпуса, поэтому распознавание значительно лучше. Но для русского или, скажем, испанского данных гораздо меньше, а для многих других языков нет вообще. «И результат соответствующий», — заключает ученый. «Кроме того, значение слова, фразы в фильме мы оцениваем не только по звуку, важны и интонация актера, его мимика. Как интерпретировать это?» — добавляет Сергей Аксенов, доцент отделения информационных технологий Томского политехнического университета. «Как обработать особенности беглой речи? Нечеткую артикуляцию, отрывочность, междометия, паузы? Ведь в зависимости от этого меняется смысл, как в «казнить нельзя помиловать». Как научить машину определять, где у говорящего запятая? А в стихах?» — перечисляет Марина Болсуновская, заведующая лабораторией «Промышленные системы потоковой обработки данных» Центра НТИ СПбПУ.Самые успешные проекты, по мнению эксперта, — в узких областях. Например — система распознавания профессиональной речи врачей с использованием медицинских терминов, разработанная группой компаний ЦРТ, помогающая докторам вести историю болезни.»Здесь можно четко очертить предметную область и выделить в речи ключевые слова. Врач специально подчеркивает интонацией определенные разделы: жалобы пациента, диагноз», — уточняет Болсуновская.На еще одну проблему указывает Михаил Бурцев, заведующий лабораторией нейронных систем и глубокого обучения МФТИ. Дело в том, что пока машина успешнее распознает текст, когда говорит один человек, нежели несколько, как в кинофильмах. Перевод с контекстомВозьмем какой-нибудь англоязычный ролик, например нарезку из сериала «Игра престолов», и включим автоматические русские субтитры. То, что мы увидим, скорее всего, нас рассмешит. Хотя в машинном переводе технологии достигли впечатляющих успехов. Так, Google Translate переводит тексты на распространенных языках вполне сносно, часто требуется лишь минимальная правка. Дело в том, что нейросеть-переводчик также обучается на большом массиве исходных, правильно размеченных данных — параллельном корпусе, где показано, как каждая фраза на языке оригинала должна выглядеть по-русски. «Строить такие корпусы очень трудоемко, дорого и долго, уходят месяцы, годы. Чтобы натренировать нейросеть, нужны тексты объемом с Александрийскую библиотеку. Модели универсальные, но многое зависит от языка. Если предоставить много данных, например на аварском, и перевод выдадут качественный, но для аварского просто нет такого объема данных», — говорит Андрей Фильченков. «Перевод — это отдельный продукт, который связан с оригиналом, но не равен ему, — отмечает Илья Мирин, директор Школы цифровой экономики Дальневосточного федерального университета. — Характерный пример — переводы Дмитрия Пучкова (Гоблина) зарубежных фильмов в 90-е. Только после его работы стало понятно, что там происходит. Из VHS-версий мы не могли узнать ничего адекватного. Как вариант, попробуйте перевести на язык, который хорошо знаете, что-то из «Мастера и Маргариты». Например, «в черном плаще с кровавым подбоем». Машина этого не сумеет». Нейросети хорошо обучаются на множестве типовых примеров, но фильмы полны сложных смыслов и коннотаций, шуток, машине не доступных — она не может их различить.»В каждой серии мультсериала Futurama есть отсылка к классическому американскому кинематографу — «Касабланке», «Римским каникулам» и так далее. В такие моменты переводчику, чтобы поймать и переупаковать смысл для тех, кто этих фильмов не смотрел, нужно придумать близкий аналог из российского контекста. Неправильный машинный перевод может сильно обескуражить зрителя», — продолжает Мирин.По его мнению, качество машинного перевода близко к 80 процентам, остальное — специфика, которую надо добавлять вручную, привлекая экспертов. «А если 20-30 процентов фраз требуют ручной коррекции, то в чем польза машинного перевода?» — рассуждает исследователь. «Перевод — самый проблемный этап, — соглашается Сергей Аксенов. — Все упирается в семантику и контекст. Имеющиеся инструменты вполне можно использовать для перевода и машинной озвучки, например, детских мультиков с простой лексикой. Но вот с интерпретацией фразеологизмов, имен собственных, слов, отсылающих зрителей к каким-то культурным реалиям, возникают сложности». В фильмах и видеороликах контекст всегда визуальный и нередко сопровождается музыкой, шумами. Мы по картинке домысливаем, о чем говорит герой. Речь, обращенная в текст, лишена этой информации, поэтому перевод затруднен. В такой ситуации оказываются переводчики, работающие с текстовыми субтитрами, не видя фильма. Они часто ошибаются. С машинным переводом та же история.ИИ озвучивает речьЧтобы озвучить сериал, переведенный на русский, понадобится алгоритм генерации естественной речи по тексту — синтезатор. Их создают многие IT-компании, в том числе Microsoft, Amazon, Yandex, и получается у них неплохо. По словам Андрея Фильченкова, пару лет назад минута озвучивания синтезатором речи занимала несколько часов, сейчас скорость обработки сильно выросла. Задача синтеза речи для некоторых областей, где требуются нейтральные диалоги, решается довольно хорошо. Многие уже принимают как данность разговор с роботом по телефону, выполнение команд автомобильного навигатора, диалог с Алисой в машине «Яндекс.Драйв». Но для озвучивания сериалов эти технологии пока недотягивают. «Проблема в эмоциях и актерской игре. Мы научились делать машинный голос человеческим, но чтобы он еще звучал уместно контексту и вызывал доверие — до этого далеко. Плохой озвучкой легко убить восприятие фильма», — полагает Фильченков. По мнению Михаила Бурцева, синтез речи вполне реален. Однако это требует больших вычислительных ресурсов и не может выполняться в реальном времени за разумные деньги. «Существуют алгоритмы, которые синтезируют речь, похожую на голос конкретного актера. Это и тембр, и манера говорить, и многое другое. Так любой иностранный актер фактически заговорит по-русски», — прогнозирует Бурцев. Он ожидает заметный прогресс в ближайшие годы.Сергей Аксенов дает пять-десять лет на развитие инструментов для перевода и озвучки сложных произведений с самых распространенных языков вроде английского. Ученый приводит в пример Skype, который несколько лет назад продемонстрировал возможность организации онлайн-уроков для школьников, говорящих на разных языках. Но даже тогда система не будет идеальной, ей постоянно придется учиться: набирать словарный запас, учитывать культурный контекст.

https://ria.ru/20180711/1524378746.html

https://ria.ru/20180602/1521875364.html

https://ria.ru/20200616/1572976622. html

https://ria.ru/20170914/1504708975.html

https://ria.ru/20170307/1489449991.html

https://ria.ru/20160514/1432666353.html

москва

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

2020

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

Новости

ru-RU

https://ria.ru/docs/about/copyright.html

https://xn--c1acbl2abdlkab1og.xn--p1ai/

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

https://cdn24.img.ria.ru/images/07e4/07/0d/1574294022_267:0:1334:800_1920x0_80_0_0_b18db75abafaca0f481eacd1e4a3eaaf.jpg

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

проект 5-100, it-компании, математика, физика, москва

МОСКВА, 15 июл — РИА Новости, Татьяна Пичугина. Российские издательства уже экспериментируют с машинной записью аудиокниг, в перспективе искусственному интеллекту можно будет поручить перевод сериалов и озвучку их голосами любимых актеров. Об особенностях таких технологий и сколько времени понадобится на их создание — в материале РИА Новости.

Устная речь превращается в письменную

На YouTube автоматические субтитры для роликов создает программа распознавания голоса и перевода речи в текст. В ее основе — самообучающиеся нейросети. Этой опции более десяти лет, но результат все еще далек от идеала. Чаще всего удается лишь уловить общий смысл сказанного. В чем трудность?

Допустим, объясняет Андрей Фильченков, руководитель лаборатории «Машинное обучение» Университета ИТМО, мы строим алгоритм для распознавания речи. Для этого требуется обучить нейросеть на большом массиве данных.

Понадобятся сотни, тысячи часов записей речи и правильное сопоставление их с текстами, включая разметку начала и окончания фраз, смены собеседников и так далее. Это называется корпусом. Чем он больше, тем качественнее идет обучение нейросети, Для английского языка созданы действительно большие корпуса, поэтому распознавание значительно лучше. Но для русского или, скажем, испанского данных гораздо меньше, а для многих других языков нет вообще.

«И результат соответствующий», — заключает ученый.

11 июля 2018, 15:06НаукаМатематики из России научат компьютер распознавать речь не хуже человека»Кроме того, значение слова, фразы в фильме мы оцениваем не только по звуку, важны и интонация актера, его мимика. Как интерпретировать это?» — добавляет Сергей Аксенов, доцент отделения информационных технологий Томского политехнического университета.»Как обработать особенности беглой речи? Нечеткую артикуляцию, отрывочность, междометия, паузы? Ведь в зависимости от этого меняется смысл, как в «казнить нельзя помиловать». Как научить машину определять, где у говорящего запятая? А в стихах?» — перечисляет Марина Болсуновская, заведующая лабораторией «Промышленные системы потоковой обработки данных» Центра НТИ СПбПУ.

Самые успешные проекты, по мнению эксперта, — в узких областях. Например — система распознавания профессиональной речи врачей с использованием медицинских терминов, разработанная группой компаний ЦРТ, помогающая докторам вести историю болезни.

2 июня 2018, 08:00НаукаУнутре нейронка: «Яндекс» превратил искусственный разум в реставратора

«Здесь можно четко очертить предметную область и выделить в речи ключевые слова. Врач специально подчеркивает интонацией определенные разделы: жалобы пациента, диагноз», — уточняет Болсуновская.

На еще одну проблему указывает Михаил Бурцев, заведующий лабораторией нейронных систем и глубокого обучения МФТИ. Дело в том, что пока машина успешнее распознает текст, когда говорит один человек, нежели несколько, как в кинофильмах.

Перевод с контекстом

Возьмем какой-нибудь англоязычный ролик, например нарезку из сериала «Игра престолов», и включим автоматические русские субтитры. То, что мы увидим, скорее всего, нас рассмешит.

Хотя в машинном переводе технологии достигли впечатляющих успехов. Так, Google Translate переводит тексты на распространенных языках вполне сносно, часто требуется лишь минимальная правка.

Дело в том, что нейросеть-переводчик также обучается на большом массиве исходных, правильно размеченных данных — параллельном корпусе, где показано, как каждая фраза на языке оригинала должна выглядеть по-русски.

«Строить такие корпусы очень трудоемко, дорого и долго, уходят месяцы, годы. Чтобы натренировать нейросеть, нужны тексты объемом с Александрийскую библиотеку. Модели универсальные, но многое зависит от языка. Если предоставить много данных, например на аварском, и перевод выдадут качественный, но для аварского просто нет такого объема данных», — говорит Андрей Фильченков.

«Перевод — это отдельный продукт, который связан с оригиналом, но не равен ему, — отмечает Илья Мирин, директор Школы цифровой экономики Дальневосточного федерального университета. — Характерный пример — переводы Дмитрия Пучкова (Гоблина) зарубежных фильмов в 90-е. Только после его работы стало понятно, что там происходит. Из VHS-версий мы не могли узнать ничего адекватного. Как вариант, попробуйте перевести на язык, который хорошо знаете, что-то из «Мастера и Маргариты». Например, «в черном плаще с кровавым подбоем». Машина этого не сумеет».

16 июня 2020, 04:55

Школьники из ДВФУ создали нейросеть, регулирующую транспортные потоки

Нейросети хорошо обучаются на множестве типовых примеров, но фильмы полны сложных смыслов и коннотаций, шуток, машине не доступных — она не может их различить.

«В каждой серии мультсериала Futurama есть отсылка к классическому американскому кинематографу — «Касабланке», «Римским каникулам» и так далее. В такие моменты переводчику, чтобы поймать и переупаковать смысл для тех, кто этих фильмов не смотрел, нужно придумать близкий аналог из российского контекста. Неправильный машинный перевод может сильно обескуражить зрителя», — продолжает Мирин.

По его мнению, качество машинного перевода близко к 80 процентам, остальное — специфика, которую надо добавлять вручную, привлекая экспертов. «А если 20-30 процентов фраз требуют ручной коррекции, то в чем польза машинного перевода?» — рассуждает исследователь.

«Перевод — самый проблемный этап, — соглашается Сергей Аксенов. — Все упирается в семантику и контекст. Имеющиеся инструменты вполне можно использовать для перевода и машинной озвучки, например, детских мультиков с простой лексикой. Но вот с интерпретацией фразеологизмов, имен собственных, слов, отсылающих зрителей к каким-то культурным реалиям, возникают сложности».

В фильмах и видеороликах контекст всегда визуальный и нередко сопровождается музыкой, шумами. Мы по картинке домысливаем, о чем говорит герой. Речь, обращенная в текст, лишена этой информации, поэтому перевод затруднен. В такой ситуации оказываются переводчики, работающие с текстовыми субтитрами, не видя фильма. Они часто ошибаются. С машинным переводом та же история.

14 сентября 2017, 10:06НаукаЯндекс создал «гибридный» искусственный интеллект для перевода текстов

ИИ озвучивает речь

Чтобы озвучить сериал, переведенный на русский, понадобится алгоритм генерации естественной речи по тексту — синтезатор. Их создают многие IT-компании, в том числе Microsoft, Amazon, Yandex, и получается у них неплохо.

По словам Андрея Фильченкова, пару лет назад минута озвучивания синтезатором речи занимала несколько часов, сейчас скорость обработки сильно выросла. Задача синтеза речи для некоторых областей, где требуются нейтральные диалоги, решается довольно хорошо.

Многие уже принимают как данность разговор с роботом по телефону, выполнение команд автомобильного навигатора, диалог с Алисой в машине «Яндекс.Драйв». Но для озвучивания сериалов эти технологии пока недотягивают.

«Проблема в эмоциях и актерской игре. Мы научились делать машинный голос человеческим, но чтобы он еще звучал уместно контексту и вызывал доверие — до этого далеко. Плохой озвучкой легко убить восприятие фильма», — полагает Фильченков.

7 марта 2017, 11:39НаукаGoogle научил искусственный разум понимать русский язык

По мнению Михаила Бурцева, синтез речи вполне реален. Однако это требует больших вычислительных ресурсов и не может выполняться в реальном времени за разумные деньги.

«Существуют алгоритмы, которые синтезируют речь, похожую на голос конкретного актера. Это и тембр, и манера говорить, и многое другое. Так любой иностранный актер фактически заговорит по-русски», — прогнозирует Бурцев. Он ожидает заметный прогресс в ближайшие годы.

Сергей Аксенов дает пять-десять лет на развитие инструментов для перевода и озвучки сложных произведений с самых распространенных языков вроде английского. Ученый приводит в пример Skype, который несколько лет назад продемонстрировал возможность организации онлайн-уроков для школьников, говорящих на разных языках. Но даже тогда система не будет идеальной, ей постоянно придется учиться: набирать словарный запас, учитывать культурный контекст.14 мая 2016, 10:04НаукаУченые создали программу, способную «перекрасить» кино под Ван ГогаНемецкие математики создали необычную нейросеть, которую они научили «раскрашивать» уже существующие видеоролики и кинокартины в своеобразные «живые картины», выполненные в стиле Ван Гога, Тёрнера, Пикассо, Матисса или других известных художников.

Переводчик на кошачий — ты уже поговорил со своей кисой?

Признаюсь, об этом приложении я узнал благодаря популярному ролику на YouTube после того, как уже насмотрелся на тигра 3д и других животных в Google. В нем одна почтенная женщина пыталась поговорить со своим котом на его родном языке, что привело к достаточно нетривиальной реакции со стороны домашнего питомца. По моей квартире тоже разгуливает один очень важный и крайне самодостаточный кот, поэтому я не мог не проверить, какой эффект вызовет приложение на него. В App Store уже множество аналогичных программ, осуществляющих «достоверный» перевод человеческой речи на кошачий язык, но я воспользовался самым популярным и к тому же бесплатным вариантом — это кошачий переводчик онлайн прямо на iPhone.

А вы понимаете все, о чем мяукает ваша киса?

Суть приложения такова, что в нем хранится база звуков, издаваемых настоящими котами и кошками. Лично я в них не вижу особой разницы, так как не являюсь лингвистом в области кошачьего, но разработчики каким-то образом сумели идентифицировать все эти звуки и разбить их на категории: приложение содержит как кошачьи голоса, так и крики, которые несут в себе определенные эмоции и информационную составляющую.

Кошачий переводчик онлайн

В момент загрузки приложения «Переводчик на кошачий» текущая обстановка сопутствовала удачному проведению исследований: я лежал на диване, а мой кот, скорее всего, вдохновившись моим примером, занимался тем же самым. В общем, испытуемый находился в совершенно спокойном и адекватном расположении духа и, наверное, даже скромно помышлял о каких-то своих кошачьих делах и планах. В популярном видеоролике, как вы помните, кот ударил свою хозяйку, я, конечно, не рассчитывал на подобную реакцию, но готов был ко многому. Хотя больше всего был склонен думать, что милые кошачьи голоса не произведут на моего питомца ровно никакого эффекта — но я ошибался.

Не надо докучать кошке с этим приложением. Но ведь так хочется!

Включив первые несколько звуков, я заметил крайнюю заинтересованность со стороны моего кота: он не только оторвался от своего любимого занятия — сна, — но и поднял свою голову с мягкой подушки и начал с некоторым недоумением смотреть в мою сторону. Конечно, сложно разбираться в мимике котов, но я прочитал на его кошачьей морде нечто вроде испуга и полного непонимания происходящего. Я редко вижу своего кота с подобным настроением, что даже в определенную секунду мне самому стало за него страшно. Но, к моему удивлению, подобная реакция продлилась недолго, после чего он начал усердно облизывать заднюю лапу и опять предался забвенному сну. Может, этот кошачий переводчик и работает, но правду мы не узнаем. Вы уже попробовали на своей кошке?

Кошачий переводчик мгновенно переведет ваш голос в мяуканье

Мне очень интересно ваше мнение на счет приложения «Переводчик на кошачий», расскажите в нашем Telegram-чате. Оно совершенно бесплатно в App Store, но данная версия несколько ограничена — в ней некоторые голоса и звуки являются недоступными. Но для того, чтобы немного развлечься на карантине — самое оно!

Название: Переводчик на кошачий
Издатель/разработчик: Electric French Fries
Цена: Бесплатно
Встроенные покупки: Да
Совместимость: Универсальное приложение
Ссылка: Установить

Прототип AI-переводчика Google переводит как ваш тон, так и слова

Все мы знаем, что общение зависит не только от того, что вы говорите. Как вы говорите, часто не менее важно. Вот почему последний прототип AI-переводчика Google переводит не только слова, которые вы произносите, но также тон и частоту вашего голоса.

Система называется Translatotron, и исследователи Google подробно рассказали, как она работает, в недавнем сообщении в блоге. Они не говорят, что Translatotron скоро появится в коммерческих продуктах, но, вероятно, со временем это произойдет.Как объяснил руководитель отдела переводов Google в интервью The Verge ранее в этом году, цель компании на данный момент — добавить больше нюансов в свои инструменты перевода, чтобы речь была более реалистичной.

Вы можете услышать, как это звучит, в аудио-образцах ниже. Первый клип — это вход; второй — основной перевод; а третий пытается уловить исходный голос говорящего.

Ввод (испанский)
Перевод транслатотрона
Перевод транслатотрона с перегибом

Как вы слышите, это не безупречный перевод, но, тем не менее, он впечатляет.Вы можете послушать еще много аудиосэмплов из Translatotron здесь.

Хотя улавливание интонации голоса говорящего — это то, что больше всего впечатляет непрофессионалов, Translatotron привлекает инженеров ИИ тем, что он переводит речь прямо с аудиовхода на аудиовыход , а не переводит ее в обычный промежуточный текст.

Translatotron переводит аудио в аудио, что означает меньшее количество ошибок и более высокую производительность.

Такая модель ИИ известна как сквозная система, потому что нет остановок для вспомогательных задач или действий.Google говорит, что выполнение сквозного перевода дает результаты быстрее, избегая риска появления ошибок на нескольких этапах перевода.

Возможно, что еще более интересно, данные, которые обрабатывает модель, не являются исходным звуком. Вместо этого он использует данные спектрограммы или детальную визуализацию звука. По сути, это означает, что мы переводим речь с одного языка на другой с помощью изображений, что ошеломляет.

Как и всегда, в случае с переводом Google, есть основания сомневаться в том, как подобные системы будут работать в реальных условиях.Компания часто представляет новые амбициозные инструменты речи и перевода, которые зачастую работают менее плавно, чем мы надеемся. Тем не менее: будущее идет вперед, а перевод AI только улучшается.

Amazing Google AI говорит на другом языке вашим голосом

Он разработан, чтобы сохранить ваш голос и ритм при переводе аудио.

Tech Talk

В среду Google представила Translatotron, находящуюся в разработке систему преобразования речи в речь.

Это не первая система, которая переводит речь с одного языка на другой, но компания Google разработала Translatotron, чтобы делать то, чего другие системы не могут: сохранять голос исходного говорящего в переведенной аудиозаписи.

Другими словами, технология может создать впечатление, будто вы говорите на незнакомом языке — значительный шаг вперед на пути к преодолению глобального языкового барьера.

Оптимизированная речь

Согласно блогу Google по искусственному интеллекту, большинство систем преобразования речи в речь следует трехэтапному процессу. Сначала они расшифровывают речь. Затем они переводят транскрипцию на целевой язык, прежде чем, наконец, сгенерировать аудио переведенной речи.

Translatotron, однако, полностью пропускает текстовую часть этого процесса и вместо этого преобразует речь в спектрограмму, изображение, которое отображает звуковые частоты.Затем система создает новую спектрограмму, на этот раз на целевом языке, которую она использует для создания нового звука.

Первые шаги

Теоретически Translatotron будет намного быстрее, чем другие системы преобразования речи в речь, поскольку ему нужно выполнить только один процесс, а не три. Использование спектрограмм также упрощает сохранение элементов исходного звука, таких как голос говорящего и частота шагов.

Система еще не готова к развертыванию — примеры, опубликованные на странице Google GitHub, по-прежнему кажутся довольно роботизированными, а переводы далеки от совершенства — но эта технология дает захватывающий взгляд на будущее коммуникаций.

ПРОЧИТАЙТЕ БОЛЬШЕ: Google Translatotron может переводить речь голосом говорящего [ Engadget ]

Подробнее о технологиях перевода : Правление английского языка как «глобального языка» может закончиться, говорит эксперт

Как Читатель футуризма, мы приглашаем вас присоединиться к Singularity Global Community, форуму нашей материнской компании, чтобы обсудить футуристическую науку и технологии с единомышленниками со всего мира. Присоединяйтесь бесплатно, зарегистрируйтесь сейчас!

Как переводить звук с помощью эффективного сценария озвучивания

Если вам нужно агентство закадрового озвучивания для создания нескольких саундтреков на разных языках, есть несколько вопросов, которые необходимо учесть, чтобы позволить агентству закадрового озвучивания обеспечить эффективный аудиоперевод .

При переводе аудио определите, какой тон вам нужен: например, взволнованный, знающий или эффективный. Рассмотрим отношение говорящего к аудитории. Имейте в виду региональные различия в восприимчивости аудитории. Например, то, что кажется живым и привлекательным для американской аудитории, может раздражать и отталкивать других. Хотя трезвый инструктивный тон будет хорошо воспринят в некоторых странах, он может утомить другую аудиторию.

Выберите пол говорящего. Имейте в виду, что в некоторых языках есть слова, которые мужчина или женщина обычно не произносят.Выберите возрастную группу, подходящую для вашей аудитории.

Выберите скорость для получения желаемого тона, но если вы решите, что аудиоперевод должен быть быстрым, убедитесь, что он достаточно четкий. Адаптируйте сценарий к этой цели, а не регулируйте скорость, чтобы соответствовать всему, что вы написали.

Всегда помогает быть максимально лаконичным, не слишком приукрашивать и не беспокоиться о своевременном заполнении. Чем проще, тем лучше. С этой целью избегайте повторений или других излишеств.Используйте местоимения, а не повторяйте существительное или имя, например, и если вы описываете что-то, что видит ваша аудитория, не добавляйте много ненужных прилагательных.

Агентство закадрового озвучивания будет согласовывать аудиотрансляцию с вашим визуальным контентом, поэтому запишите четкие ориентиры для определения времени. Учитывайте разницу во времени разговора для разных языков, так как некоторые переводы вашего английского сценария могут занять больше времени, чем оригинал.

Разрешить свободный перевод; исполнитель озвучивания сможет создать более естественный звуковой перевод, если он сможет переводить сцену, а не отдельные слова. Им также может потребоваться сжать ваш текст, если он слишком длинный для чтения на целевом языке.

Наконец, создайте руководство по переводу для сопровождения вашего сценария. Это должно указывать, где слова, такие как компания и имена собственные или акронимы, следует или не следует переводить, и устраняет любые двусмысленности.

Все эти элементы помогут вам создать эффективный аудиоперевод. У нас есть большая база данных по голосовым талантам, в которой доступно более 2500 голосовых исполнителей, все с разными сильными сторонами и талантами, чтобы удовлетворить любые потребности проекта.В него входит большой выбор актеров озвучивания, если ваш сценарий требует действия, а не естественного чтения.

Свяжитесь с нами сегодня и выберите подходящего диктора для своего проекта!

Услуги прямого перевода для перевода аудио в текст

Транскрипция с английского на английский или с японского на японский.

Стенограмма проходит 2 раунда проверки — QA, а затем QC.

После завершения транскрипция переводится с английского на японский или наоборот.
наоборот.

Перевод проходит одноуровневую или двухуровневую проверку в зависимости от
услуга перевода выбрана.

Количество вовлеченных людей

Переводчик *

Расшифровщик

Аналитик качества

Проверяющий / Аудитор качества

Контрольный показатель качества

99% на расшифровку и перевод

Стоимость

Premium: вдвое дороже по сравнению с DITR

Подходит для документирования событий:

Заседания Совета директоров и звонки по телефону

Релиз результатов испытаний лекарств

Технические предметы: Медицина, Иностранные дела, Поп-культура, Академический / Интеллектуальный
Обсуждения, религиозный дискурс и т. Д.

audio — Перевод на иврит — примеры английский

Предложения:
аудио и видео


Эти примеры могут содержать грубые слова, основанные на вашем поиске.


Эти примеры могут содержать разговорные слова, основанные на вашем поиске.

Расширьте возможности мультимедиа с полным, богатым звуком audio от звуковой панели Dell.

ר את חוויית המולטימדיה שלך ות שמע מלא ועשיר מרמקול המדף של Dell.

Наслаждайтесь великолепным звучанием audio , выбрав саундбар Dell.

רותך ליהנות מחוויית שמע ימה כשאתה בוחר ברמקול המדף של Dell.

Можно что-нибудь сделать с audio ?

אתה יכול לעשות משהו עם הקול ?

Это первый альбом, в котором использовалась технология audio QSound.

וסף לכך, ום הפך לראשון אי פעם אשר בו השתמשו בטכנולוגיית אודיו QSound.

Нет, сэр, аудио криминалистических исследований не дали результатов.

לא, אדוני, זיהוי האודיו היה בלתי מכריע.

Внутренний динамик Dell Business audio (моно)

רמקול שמע פנימי לעסקים של Dell (מונו)

Вместо этого используйте среду разработки Flash для добавления видео, аудио, , анимации и сложных интерактивностей.

ום זאת, תמש בסביבת הבנייה של Flash להוספת וידאו, שמע , ו ​​ורכיבים אינטראטקיביים מורכבים.

Мы сожалеем. OneNote не может воспроизводить аудио или видео на этом устройстве.

אנחנו מצטערים. ל — OneNote ין אפשרות להשמיע שמע ו וידאו בהתקן זה.

Установите Windows Media Player, чтобы слушать аудио вложений прямо в вашей электронной почте.

תקן Mediaת Windows Media Player י להאזין לקבצים מצורפים של שמע ישירות בדואר האלקטרוני שלך.

Нет высокой достоверности аудио совпадений не найдено.

לא ו ערכים תואמים של שמע י רמת מהימנות גבוהה.

Ekiga не нашла подходящего кодека audio .Убедитесь, что ваша установка правильная.

Ekiga לא מצאה תוסף שמע שמיש. וודא שההתקנה נכונה.

Прекратите показывать экраны для лучшего качества звука .

הפסק את שיתוף המסכים לטובת איכות שמע משופרת.

Со встроенным 7.1-канальным звуком и опциональным NVIDIA

ות שמע ולב של 71 רוצים ואופציית הכרטיסים הגרפיים של NVIDIA

Услышьте приближение врага с помощью встроенного 7.1 канал аудио .

רותך לשמוע את האויב מתקרב בעזרת ערוץ שמע 7.1 ובנה.

Подключите дополнительную звуковую панель, чтобы насладиться звуком премиум-класса audio .

ר את רמקול המדף האופציונלי לקבלת חוויית שמע באיכות גבוהה.

Каждые аудио устройств в этом полушарии.

כל מכשיר שמע בצד הזה של העולם.

24-контактный универсальный разъем ввода-вывода для аналогового входа RGB и дополнительного аудиовыхода

ר קלט / פלט אוניברסלי של 24 ינים עבור אותות קלט מסוג RGB אנלוגי ופלט שמע אופציונלי

Привлекайте аудиторию с помощью аудио и визуальных проекций.

רתק קהלי צופים באמצעות הקרנות הכוללות שמע וויזואליות.

Добавьте дополнительную мультимедийную звуковую панель для улучшения качества звука audio

וסף את רמקול המדף האופציונלי למולטימדיה לקבלת ביצועי שמע משופרים.

Испытайте стереофонический звук Audio с двумя встроенными динамиками.

תוכל ליהנות מחוויית שמע סטריאופוני הודות לשני רמקולים מובנים.

Создайте приложение для перевода в реальном времени, которое может слушать и говорить — IBM Developer

Сводка

Используя компоненты Node.js и React, создайте веб-приложение, которое может быть вашим личным переводчиком. Приложение использует службы IBM® Watson ™ Speech to Text, Watson Language Translator и Watson Text to Speech для расшифровки, перевода и синтеза с вашего микрофона на наушники.Сервисы Watson доступны в IBM Cloud и с Watson API Kit в IBM Cloud Pak for Data. Этот шаблон кода включает инструкции по запуску служб Watson на обоих.

Описание

Созданное с использованием компонентов React и сервера Node.js, веб-приложение языкового переводчика захватывает аудиовход и передает его в службу Watson Speech to Text. После расшифровки входной речи она отправляется в службу Watson Language Translator для перевода на выбранный вами язык.Транскрибированный и переведенный текст отображаются приложением в режиме реального времени. Каждая завершенная фраза отправляется в службу преобразования текста в речь Watson для произнесения выбранным вами голосом, зависящим от языкового стандарта.

Лучший способ понять, что такое транскрипция / перевод в реальном времени по сравнению с вокализацией «завершенная фраза» — это попробовать. Вы заметите, что текст обновляется по мере того, как слова и фразы завершаются и становятся лучше понятными в контексте. Чтобы избежать возврата или наложения звука, озвучиваются только завершенные фразы.Обычно это короткие предложения или высказывания, в которых пауза указывает на перерыв.

Чтобы получить наилучшие впечатления от живого выступления, наденьте наушники и слушайте переведенную версию того, что слушает ваш микрофон. Кроме того, вы можете использовать кнопки-переключатели, чтобы сначала записать и расшифровать без перевода. Когда будете готовы, выберите язык и голос, а затем включите перевод (и речь).

Когда вы заполнили этот шаблон кода, вы поймете, как:

  • Потоковое аудио в службу Watson Speech to Text с помощью WebSocket
  • Используйте службу Watson Language Translator с REST API
  • Получение и воспроизведение звука из службы Watson Speech to Text с помощью REST API
  • Интегрируйте службы Watson Speech to Text, Watson Language Translator и Watson Text to Speech в веб-приложение
  • Используйте компоненты React и Node.js сервер

Расход

  1. Пользователь нажимает кнопку микрофона и записывает входящий звук.
  2. Аудио передается в службу преобразования речи в текст с помощью WebSocket.
  3. Отображается и обновляется транскрибированный текст из службы преобразования речи в текст.
  4. Расшифрованный текст отправляется в Language Translator, а переведенный текст отображается и обновляется.
  5. Завершенные фразы отправляются в функцию преобразования текста в речь, и полученный звук воспроизводится автоматически.

Найдите подробные инструкции для этого шаблона в файле README. Шаги покажут вам, как:

  1. Предоставление услуг Watson.
  2. Разверните сервер.
  3. Воспользуйтесь веб-приложением.

Новый искусственный интеллект Google поможет вам говорить на другом языке собственным голосом

Google Translate — один из наиболее часто используемых продуктов компании. Он помогает людям переводить с одного языка на другой с помощью набора текста, фотографирования текста и использования технологии преобразования речи в текст.Теперь компания запускает новый проект под названием Translatotron, который будет предлагать прямой перевод речи в речь — даже без использования текста.

В сообщении в блоге Google, посвященном искусственному интеллекту, команда разработчиков этого инструмента объяснила, что вместо преобразования речи в текст, а затем из текста в речь для преобразования голоса использовалась новая модель (которая работает в нейронной сети). разработать новую систему.

“Эта система, получившая название Translatotron , позволяет избежать разделения задачи на отдельные этапы, обеспечивая несколько преимуществ по сравнению с каскадными системами, в том числе более высокую скорость вывода, что, естественно, позволяет избежать смешивания ошибок между распознаванием и переводом, что упрощает сохранение голоса исходного говорящего. после перевода и улучшенная обработка слов, которые не нужно переводить (например,g., имена и имена собственные) », — написала исследовательская группа Google в своем блоге.

Translatotron также может сохранять характеристики голоса говорящего при переводе с одного языка на другой. Это может быть действительно полезно для звукорежиссеров, которые дублируют фильмы и телешоу.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *