ПОЧЕМУ ПАДАЕТ ДОВЕРИЕ К ИСКУССТВЕННОМУ ИНТЕЛЛЕКТУ: СОЦИАЛЬНО-ПСИХОЛОГИЧЕСКИЙ АСПЕКТ

Данилов Юрий Дмитриевич1, Комарова Арина Сергеевна2
1Брестский государственный технический университет, старший преподаватель кафедры гуманитарных наук
2Брестский государственный технический университет, студентка экономического факультета

Аннотация
Статья посвящена проблеме снижения доверия к искусственному интеллекту. Опираясь на данные последних исследований авторы утверждают, что одной из причин данного феномена является недостаточное внимание социально-психологическому аспекту при оценке нейросистем, в частности последствиям эмоциональных реакций людей, реагирующих на превосходство машин. По мнению авторов, успешное внедрение искусственного интеллекта напрямую зависит от степени учета особенностей психологии социального сравнения человека с машиной.

Ключевые слова: , , , ,


Рубрика: 22.00.00 СОЦИОЛОГИЧЕСКИЕ НАУКИ

Библиографическая ссылка на статью:
Данилов Ю.Д., Комарова А.С. Почему падает доверие к искусственному интеллекту: социально-психологический аспект // Современные научные исследования и инновации. 2025. № 11 [Электронный ресурс]. URL: https://web.snauka.ru/issues/2025/11/103838 (дата обращения: 07.02.2026).

Во многих компаниях по всему миру люди уже работают бок о бок с искусственным интеллектом. Такие системы, как OpenAI ChatGPT, Guru, DALL·E, Google AI, DeepSeek и другие специализированные аналитические инструменты, помогают принимать решения, безусловно, вносят творческий вклад или выполняют определенные сложные задачи зачастую быстрее и точнее, чем их коллеги-люди. Однако за такие приходится платить, и не только деньгами. Сегодня результаты ряда исследований показывают, что доверие к искусственному интеллекту начинает падать, т.к. люди чувствуют себя хуже в прямом сравнении с машинами. Это сравнение носит чисто эмоциональный характер: те, кто понимает, что ИИ превосходит их в работе, начинают сомневаться не только в своих способностях, но и в самой технологии. Как бы парадоксально это ни звучало, но складывается ситуация, при которой превосходство машины может подорвать доверие к ней. В итоге люди, вместо того чтобы стремиться к организации более продуктивного взаимодействия с системами ИИ, начинают отказываться от их применения.

Когда системы искусственного интеллекта берут на себя задачи, которые раньше выполняли люди, ожидается, что они будут обеспечивать в первую очередь решение главных задач – повышать эффективность повседневной работы сотрудников и снижать нагрузку на них. Как правило, ожидания от таких внедрений высоки, организации и компании надеются на получение более точных решений, уменьшение количества ошибок, возможность появления инновационных способов оптимизации всех бизнес-процессов. Уже сегодня нейросети достаточно успешно анализируют данные, проверяют приложения или предлагают креативные решения. И, на первый взгляд, это представляет собой явный прогресс: в распоряжении бизнеса появляется мощный инструмент, который эффективно дополняет и упрощает работу. Именно поэтому многие специалисты и руководители доверяют искусственному интеллекту, а в обществе формируется представление, что чем лучше машина, тем больше к ней доверия. Данная точка зрения подтверждалась результатами многочисленных исследований, в которых доминировал вывод о том, что люди готовы сотрудничать с ИИ, если сами считают его компетентным [1].

Однако при оценке нейросистем, как правило, основное внимание уделялось их абсолютной эффективности, т.е. тому, насколько хороша технология сама по себе. На первый взгляд, такой подход кажется вполне обоснованным, но при более глубоком рассмотрении становится очевидным, что при этом упускается из виду важный аспект: люди не являются нейтральными в своих оценках, потому что делают это всегда в сравнении себя с другими, в том числе и с машиной.

Для углубления понимания роли искусственного интеллекта в последние годы применяется несколько иной подход, всесторонне учитывающий то, как интеллектуальная система функционирует в сравнении с людьми. В качестве примера можно привести результаты эксперимента [2], в основе которого лежал вопрос о том, как люди воспринимают их прямое сравнение с ИИ, т.е. насколько они готовы сотрудничать с искусственным интеллектом при понимании и признании факта, что алгоритм даёт лучшие результаты, чем они сами. В рамках исследования, участникам предлагалось представить, что они только что закончили игру в покер, а затем им сообщали, что нейросеть добилась таких же или лучших результатов. После этого испытуемых спросили, насколько они готовы сотрудничать с таким «коллегой» при решении других, например, профессиональных задач. Результаты свелись к двум основным выводам:

1. Независимо от результата сравнения, участники эксперимента выразили готовность работать с ИИ больше, чем с человеком.

2. Как только становилось ясно, что искусственный интеллект превзошёл людей в игре, их доверие к системе резко падало.

Такой результат имел место даже в ситуации, когда речь шла просто об игре в покер, а не о решении профессиональных задач. Более того, по отношению к ИИ снижались показатели не только доверия, но и оценки его честности и компетентности.

Очевидно, что объяснение данного феномена лежит в области социальной психологии. Люди не воспринимают превосходство других людей и даже машин нейтрально. На это они реагируют эмоционально, испытывая при этом и негативные эмоции, такие как зависть, неуверенность в себе или угрозу своей самооценке. Разумеется, что такие реакции отражаются на оценке людьми ИИ как партнёра по взаимодействию, система воспринимается уже не как нейтральный инструмент-помощник, а как социальный субъект, сродни конкуренту-человеку.

Социальные сравнения глубоко укоренены в человеческом сознании и поведении. Люди постоянно сравнивают себя с другими и часто делают это бессознательно. Когда в таких сравнениях случается неудача, чаще всего она воспринимается как угроза своей самооценке. Чтобы смягчить это негативное чувство, многие прибегают к типичному защитному механизму: эмоционально или даже физически отстраняются от превосходящего их соперника, независимо от того, человек это или машина.

Можно предположить, что отчасти по этим причинам в последнее время наметился отход от эйфории, связанной с использованием ИИ в практической деятельности. Такая тенденция получила подтверждение летом нынешнего года, когда сотрудники крупных американских компаний заявили о существенном сокращении использования нейросетевых платформ. Произошло это впервые с 2024-го года. Свидетельством являются результаты опроса более чем миллиона различных компаний с численностью сотрудников от 100 до 250 и более 250. За прошедший год темпы внедрения ИИ-инструментов росли до мая нынешнего года, а затем начали снижаться с 14% до 12%. Интересно, что в небольших компаниях такое падение происходит медленнее. Согласно данным исследования, проведенного Массачусетским технологическим институтом, в США лишь 5% из 300 исследованных компаний смогли улучшить финансовые показатели благодаря применению ИИ. Причина столь скромных показателей – трудности в доводке готовых ИИ-инструментов для решения индивидуальных бизнес-задач. В связи с этим уже отмечаются случаи, когда предприниматели начинают испытывать сомнения относительно рентабельности нейросетевых платформ и целесообразности миллиардных инвестиций в их внедрение [3].

Важно отметить, что такая ситуация не является чем-то совершенно новым и неожиданным: ожидания от внедрения ИИ не оправдывались и ранее. Как минимум дважды эйфория сменялась падением интереса, и, как следствие, существенным снижением инвестиций. Данные случаи даже получили терминологическое название – «зимы искусственного интеллекта», которое впервые было предложено еще в далеком 1984 году. Как известно, понятие «искусственный интеллект» используется с 1955 года, благодаря трудам Джона Маккарти. Изначально развитие ИИ было сосредоточено на разработке систем перевода, распознавания речи и математических моделей – перцептронов, предшественников нейросетей. В начале семидесятых годов ХХ века британец Д. Лайтхилл сделал вывод, что все открытия в области искусственного интеллекта так и не смогли существенным образом повлиять на развитие науки и общества из-за нехватки вычислительных мощностей. Тем самым он заявил о наступлении первой «зимы искусственного интеллекта». В восьмидесятые годы интерес к нейросетям вновь возродился, на этот раз в центре внимания оказались программы с базами знаний и системами логического вывода, способными воспроизводить логику действий специалистов. Уже к 1987 году выяснилось, что все эти новации не способны справляться с неструктурированными данными. Так наступила вторая «ИИ-зима», продлившаяся до 1993 года. Некоторые исследователи полагают, что сейчас развитие искусственного интеллекта движется к очередному «дну разочарования» – третьей «зиме ИИ», которая может наступить уже в 2026 году [4].

Таким образом, при оценках и особенно при принятии решений о внедрении ИИ, целесообразно учитывать, что он запускает не только техническую, но и психологическую динамику. Современные мощные интеллектуальные системы, безусловно, обладают огромным потенциалом, но могут иметь и непредвиденные побочные эффекты, особенно если людьми воспринимаются не как инструменты, а как конкуренты. Чтобы сохранить доверие к ним и обеспечить успешное взаимодействие между человеком и машиной, целесообразными представляются следующие подходы к их использованию:

  • избегать постоянного и повсеместного подчёркивания превосходства ИИ, что может привести к негативной реакции части общества. Лучше всего позиционировать нейросистемы в качестве партнёров, дополняющих человеческие возможности;
  • следует учитывать, что новые технологии могут угрожать самооценке сотрудников, а потому доверие к ним необходимо выстраивать осмысленно, целенаправленно, стратегически, даже в какой-то степени осторожно;
  • никогда не следует преподносить ИИ просто как «супермозг», относиться к нему стоит исключительно как к инструменту.

Следование этим принципам может помочь заложить основу для позитивного принятия ИИ, который можно будет использовать на рабочих местах не только эффективно, но и так, чтобы это способствовало укреплению доверия сотрудников к технологическому прогрессу в целом [5]. Для этого требуется нечто большее, чем просто технические знания или экономически обоснованные инвестиции. Современные ИИ-системы постоянно открывают новые захватывающие возможности – от анализа огромных и сложных баз данных до создания креативных продуктов в различных областях деятельности человека. Однако важно учитывать, что одного технологического совершенства недостаточно для устойчивой интеграции ИИ в человеческое сообщество, потому что люди не хотят работать только с «лучшими» технологиями, а предпочитают трудиться с коллегами – людьми или машинами, которым они могут доверять.

Таким образом, современные исследования показывают, что доверие к интеллектуальным системам снижается не только из-за технических ошибок и ограничений, но и вследствие эмоциональных реакций людей на превосходство машин. Поэтому успешное внедрение искусственного интеллекта непосредственно зависит от степени учета особенностей психологии социального сравнения. Именно такие стратегии помогают укреплять доверие, снижают угрозу самооценке людей, обеспечивают подлинное сотрудничество человека с машиной.


Библиографический список
  1. Константинова Л. В., Ворожихин В. В., Петров А. М., Титова Е. С., Штыхно Д. А. Генеративный искусственный интеллект в образовании: дискуссии и прогнозы // Открытое образование. 2023. №2. URL: https://cyberleninka.ru/article/n/generativnyy-iskusstvennyy-intellekt-v-obrazovanii-diskussii-i-prognozy (дата обращения: 17.11.2025).
  2. Бэзил В., Шмитц Л. Дополнительное задание повышает готовность людей переложить когнитивную нагрузку на алгоритм. Когнитивные исследования: принципы и значение. Том 9, №24 (2024). URL: https://cognitiveresearchjournal.springeropen.com/articles/10.1186/s41235-024-00550-0#Abs1 (дата обращения: 11.11.2025).
  3. Ширяев Д., Замедление внедрения ИИ в крупных компаниях: анализ данных США. URL: https://vc.ru/id34154/2204611-zamedlenie-vnedreniya-ii-v-krupnykh-kompaniyakh (дата обращения: 11.11.2025).
  4. Лор С., Компании вкладывают миллиарды в искусственный интеллект. Но он пока не окупился. URL: https://www.nytimes.com/2025/08/13/business/ai-business-payoff-lags.html (дата обращения: 11.11.2025).
  5. Лешкевич Т.Г., Парадокс доверия к искусственному интеллекту и его обоснование // Философия науки и техники, 2023. Т. 28. № 1. С. 34–47.
 

Все статьи автора «Данилов Юрий Дмитриевич»


© Если вы обнаружили нарушение авторских или смежных прав, пожалуйста, незамедлительно сообщите нам об этом по электронной почте.