Для определения эмоционального настроя человека по его речи на аудиозаписи используют модели искусственного интеллекта (ИИ). www.gazeta.ru Они анализируют компоненты звука, такие как частота или высота тона, чтобы выявить скрытые эмоции. www.gazeta.ru
Некоторые ИИ-модели работают следующим образом: www.gazeta.ru
- Глубокие нейронные сети (DNN). www.gazeta.ru Анализируют компоненты звука и выявляют эмоции. www.gazeta.ru Например, когда голос становится громче из-за того, что говорящий злится. www.gazeta.ru
- Свёрточные нейронные сети (CNN). www.gazeta.ru Сканируют закономерности в визуальном представлении саундтреков, подобно тому, как определяют эмоции по ритму и текстуре голоса. www.gazeta.ru
- Гибридная модель (C-DNN). www.gazeta.ru Объединяет оба метода, используя как аудио, так и визуальную спектрограмму для прогнозирования эмоций. www.gazeta.ru
Несколько сервисов, которые позволяют анализировать эмоции по голосу:
- ScreenApp. screenapp.io Платформа позволяет загружать аудио- или видеофайлы и автоматически определять эмоциональный тон голосов. screenapp.io Может выявлять такие эмоции, как счастье, грусть, гнев и другие. screenapp.io
- QM Analyzer. habr.com Модуль речевой аналитики, который измеряет физические характеристики речевого сигнала, ищет ключевые слова и выражения, характеризующие отношение говорящего к теме. habr.com