Примеры ответов Нейро на вопросы из разных сфер
Что такое Нейро?
Главная
/
#Tanh
1
Наука и образование
2
Культура и искусство
3
Психология и отношения
4
Авто
5
Право
6
Экономика и финансы
7
Путешествия
8
Спорт
9
Красота и стиль
10
Еда
11
Технологии
12
Полезные советы
13
Гейминг
14
Другое
#Tanh
Задать свой вопрос
Вопрос для Нейро
23 мая
#НейронныеСети
#ФункцииАктивации
#Tanh
#Sigmoid
#Нестабильность
Почему функции активации tanh и sigmoid считаются нестабильными для глубоких нейронных сетей?
Нейро
На основе 5 источников
1
libeldoc.bsuir.by
2
ru.eitca.org
3
www.ultralytics.com
4
zentyx.ru
5
datareview.info
Функции активации tanh и sigmoid считаются нестабильными для глубоких нейронных сетей из-за проблемы исчезающего градиента. Для сигмоиды проблема заключается в ограниченном диапазоне значимых значений градиента, который находится между -3 и 3. За…
Читать далее
Вопрос для Нейро
16 февраля
#Tanh
#НейронныеСети
#ФункцииАктивации
#ГлубокоеОбучение
#ИскусственныйИнтеллект
Почему функция tanh считается эффективной для глубоких нейронных сетей?
Нейро
На основе 5 источников
1
www.ultralytics.com
2
ru.eitca.org
3
yourtodo.life
4
neurohive.io
5
education.yandex.ru
Функция tanh (гиперболический тангенс) считается эффективной для глубоких нейронных сетей по нескольким причинам: Нулевая центрированность. Выход функции tanh симметричен вокруг нуля, что помогает центрировать данные, что может сделать обучение…
Читать далее
Вопрос для Нейро
4 июня
#НейронныеСети
#Сигмоида
#Tanh
#Функции
#Недостатки
Какие недостатки имеют сигмоида и tanh функции при использовании в глубоких нейронных сетях?
Нейро
На основе 5 источников
1
zentyx.ru
2
libeldoc.bsuir.by
3
datareview.info
4
www.tutorialspoint.com
5
blog.ai-mix.ru
Некоторые недостатки сигмоиды при использовании в глубоких нейронных сетях: Исчезающий градиент. В областях, где размер входных данных очень велик, производная функции становится очень мала, что замедляет обучение. Нецентрированный вывод. Выходы…
Читать далее
Вопрос для Нейро
16 мая
#НейронныеСети
#ReLU
#Сигмоида
#Tanh
#АрхитектураНейронныхСетей
Почему сигмоида и tanh уступают ReLU в современных архитектурах нейронных сетей?
Нейро
На основе 5 источников
1
zentyx.ru
2
www.geeksforgeeks.org
3
habr.com
4
www.enjoyalgorithms.com
5
datascience.stackexchange.com
Сигмоида и tanh уступают ReLU в современных архитектурах нейронных сетей по нескольким причинам: Проблема исчезающего градиента. В отличие от ReLU, градиент сигмоида и tanh сходится к нулю при больших положительных значениях, что мешает обучению…
Читать далее
Вопрос для Нейро
22 ноября
#Нейросети
#ФункцииАктивации
#Sigmoid
#Tanh
#ReLu
#УлучшенныеФункции
Каковы недостатки или недостатки трех функций активации Sigmoid, Tanh и ReLu? Есть ли какие-либо улучшенные функции активации?
Нейро
На основе 5 источников
1
www.reg.ru
2
www.analyticsvidhya.com
3
yandex.ru
4
yourtodo.ru
5
habr.com
Недостатки функций активации Sigmoid, Tanh и ReLU: 1. Sigmoid: Исчезающий градиент. В областях, где |x| очень велик, производная функции становится очень мала, что приводит к исчезающему градиенту и замедляет обучение. Нецентрированный…
Читать далее
Вопрос для Нейро
22 ноября
#LSTM
#НейронныеСети
#ФункцииАктивации
#Сигмоид
#Tanh
Почему в модели LSTM присутствуют функции активации как сигмоид, так и Tanh?
Нейро
На основе 5 источников
1
stackoverflow.com
2
yandex.ru
3
ai.stackexchange.com
4
habr.com
5
sysblok.ru
В модели LSTM присутствуют функции активации как сигмоид, так и Tanh, для регулирования потока информации. Сигмоид используется в качестве функции стробирования для трёх ворот (вход, выход, забвение) в LSTM. Он выводит значение от 0 до 1 и может…
Читать далее
© 2024 ООО «Яндекс»
Пользовательское соглашение
Связаться с нами
Что такое Поиск с Нейро?
Задайте вопрос...
…и сразу получите ответ в Поиске с Нейро
Mon Jun 16 2025 19:05:57 GMT+0300 (Moscow Standard Time)