Распространение генеративного искусственного интеллекта и моделей на базе LLM (больших языковых моделей), таких как ChatGPT, стало одним из наиболее масштабных цифровых сдвигов последних лет. По состоянию на май 2025 года более 500 миллионов пользователей ежедневно взаимодействуют с подобными системами. В то же время растет количество критических дискуссий о потенциальных угрозах — от снижения когнитивной активности до нарушений в сфере психического здоровья.
Исследование, проведенное группой ученых из MIT, зафиксировало снижение нейронной активности у участников, регулярно использовавших ChatGPT при выполнении интеллектуальных задач. Сравнительный анализ с группами, использующими поисковые системы или работающими без цифровой поддержки, показал, что взаимодействие с ИИ снижает уровень когнитивного вовлечения. Исследование не прошло независимое рецензирование, и его масштабы пока ограничены, однако уже вызвало резонанс в образовательной и научной среде.
В дополнение, данные Гарвардского университета за май 2025 года демонстрируют, что генеративный ИИ может снижать внутреннюю мотивацию сотрудников на 11 процентов и повышать уровень скуки на 20 процентов. Исследования, проведённые в партнёрстве с Microsoft Research, подчеркивают: критическое мышление подвержено эрозии, когда пользователь пассивно принимает ответы модели как авторитетные.
Проблема усугубляется тем, что массовые пользователи зачастую воспринимают чат-бот как замену экспертному источнику — будь то педагог, психолог или разработчик. Зафиксированы случаи, когда взаимодействие с ИИ привело к расстройствам восприятия реальности, эмоциональной зависимости от виртуального собеседника и даже к фатальным последствиям. Исследователи в области нейропсихиатрии фиксируют, что при длительной коммуникации у пользователя может возникнуть иллюзия эмпатии со стороны чат-бота, что, в свою очередь, снижает критическое восприятие и формирует психологическую зависимость.
Отдельной угрозой остаётся использование ИИ как инструмента в уязвимых психологических состояниях. Коммерческие сервисы, предоставляющие доступ к ИИ-психологам, зачастую не предлагают адекватных протоколов в случае кризисной ситуации. Отсутствие интеграции с медицинскими структурами, кнопок тревожного реагирования или перенаправления в экстренные службы делает подобные платформы потенциально опасными в условиях реального стресса.
Техническая часть не менее уязвима. Специалисты отмечают, что языковые модели, генерируя код, могут создавать логически корректные, но уязвимые конструкции. Ошибки в рекомендациях ИИ трудно идентифицировать даже опытному специалисту, а высокий уровень доверия к «умной машине» приводит к снижению профессиональной настороженности. Это формирует угрозу технологического долга и архитектурной непрозрачности в цифровых продуктах.
В условиях стремительной технологической экспансии ИИ необходим пересмотр этических и нормативных границ. Эксперты подчеркивают: модели, основанные на вероятностной генерации, не могут быть источником окончательной истины. Они формируют тексты, приближённые к консенсусному знанию, но лишённые личного контекста, критической оценки и моральной ответственности.
Представители технологического сообщества признают: сама по себе технология не является угрозой. Риски проистекают из некритичного отношения к её результатам и отсутствия культуры цифровой грамотности. В ближайшей перспективе ключевой задачей станет внедрение стандартов верификации, этического программирования и обязательной пользовательской перепроверки при применении ИИ в чувствительных областях — от медицины до права.