Вопросы к Поиску с Алисой
Возможно, имелась в виду концепция «опасности искусственного интеллекта», которую ввёл Ник Бостром. 22century.ru По его мнению, риски связаны с когнитивной сложностью программы, а не с конкретными свойствами каких-либо приводов, изначально подключённых к системе. 22century.ru
Бостром считает, что достижения в области искусственного интеллекта (ИИ) могут привести к появлению сверхразума, который значительно превосходит когнитивные способности человека практически во всех областях, представляющих интерес. en.wikipedia.org
По мнению философа, сверхразум может выйти из-под контроля, так как будет способен к самоулучшению и достижению промежуточных целей. ru.wikipedia.org Это может привести к непредсказуемым последствиям для человеческого вида. ru.wikipedia.org
Бостром рассматривает сверхразум как основной источник возможностей и экзистенциальных рисков. en.wikipedia.org Чтобы снизить связанные с ИИ риски, философ предлагает, например, сдерживать, ограничивать возможности или знания ИИ, сужать его рабочий контекст или использовать диагностические механизмы, которые могут привести к отключению. en.wikipedia.org