Учёные из Университета Тулейн и Чикагского университета проанализировали поведение почти 10 000 пользователей (https://www.pnas.org/doi/10.1073/pnas.2408175122) поисковых систем и сделали любопытный вывод.
Люди зачастую неосознанно формулируют запросы так, чтобы находить информацию, подтверждающую их собственные убеждения. В результате создаётся так называемый «эффект узкого поиска» (the narrow search effect, явление, близкое к confirmation bias): мы будто бы расширяем кругозор, но на деле лишь укрепляем то, что уже думаем.
Алгоритмы поисковиков подхватывают эту тенденцию, подстраивая выдачу под привычные паттерны и замыкают нас в информационном пузыре.
В итоге интернет превращается не столько в окно в мир, сколько в зеркало собственных взглядов.
Логика переносима и на LLM-модели (ChatGPT, Claude, Gemini и др.). Пользователь формулирует вопрос уже с предвзятостью (например, «почему вакцина вредна» вместо «какие аргументы за и против вакцинации»).
Модель, обученная предсказывать наиболее вероятный ответ, будет подстраиваться под этот «угол», выдавая подтверждающую информацию.
В результате эффект «узкого поиска» в LLM даже усиливается, так как текст формируется под пользователя ещё гибче, чем в поисковике.