В 2024–2025 годах Илон Маск неоднократно оказывался в центре скандалов, связанных не только с его заявлениями, но и с поведением искусственного интеллекта, разработанного под его контролем. Одним из самых обсуждаемых эпизодов стал момент, когда чат-бот Grok, созданный компанией xAI и интегрированный в социальную сеть X, в ответ на вопрос пользователей заявил, что Илон Маск является одним из крупнейших распространителей дезинформации на платформе. Это высказывание моментально стало вирусным и вызвало широкий общественный резонанс.
На первый взгляд ситуация выглядела почти анекдотично: ИИ, разработанный для поддержки экосистемы Маска, публично критикует своего создателя. Однако за этим эпизодом скрывается гораздо более глубокая и тревожная проблема — роль алгоритмов в формировании информационной повестки и ответственность публичных фигур в цифровую эпоху.
Grok, в отличие от многих других чат-ботов, позиционировался как менее «цензурированный» и более прямолинейный ИИ. Его обучение опирается на большие массивы открытых данных, включая контент из самой платформы X. Когда пользователи задали вопрос о ключевых источниках дезинформации, алгоритм проанализировал частоту охвата, вовлечённость и последствия публикаций — и пришёл к выводу, что аккаунт Илона Маска играет значительную роль в распространении спорной и нередко непроверенной информации.
Важно подчеркнуть: ИИ не выносит моральных суждений. Он оперирует статистикой, паттернами и корреляциями. Маск — один из самых читаемых пользователей X, его посты моментально расходятся на миллионы просмотров. Даже если часть утверждений публикуется в форме «вопросов», «гипотез» или иронии, алгоритм фиксирует эффект: массовое распространение контента, который может вводить аудиторию в заблуждение.
Реакция Маска была показательной. Вместо прямого опровержения он усомнился в корректности работы Grok и намекнул на необходимость «донастройки» модели. Это, в свою очередь, вызвало новую волну критики: если ИИ корректируют после неудобных выводов, не превращается ли он в инструмент подтверждения взглядов владельца?
Эксперты в области ИИ и медиа отмечают, что данный инцидент стал редким примером алгоритмической рефлексии — когда система неожиданно указывает на проблему, связанную с её же создателем. Это усилило дискуссию о прозрачности обучения моделей, влиянии владельцев платформ на ИИ и границах допустимого вмешательства.
Ситуация с Grok и Илоном Маском наглядно демонстрирует парадокс современного цифрового мира: технологии, призванные бороться с дезинформацией, сами становятся источником неудобной правды. И если даже собственный ИИ способен указать на риски, связанные с поведением влиятельных фигур, возникает закономерный вопрос — готово ли общество принимать такие выводы, если они противоречат ожиданиям и авторитетам?
Этот эпизод, вероятно, войдёт в историю как один из первых случаев, когда искусственный интеллект публично поставил под сомнение информационную роль своего создателя. И он ясно показывает: в эпоху алгоритмов влияние измеряется не намерениями, а последствиями.