Черный ящик загадок: как на самом деле работают ChatGPT и DeepSeek | Источник: Midjourney | theGirl
Фото

Midjourney | theGirl

Сегодня наш мир уже трудно представить без искусственного интеллекта. Одним он здорово помогает в работе, а другие обожают с ним просто поболтать. ChatGPT уже настолько вошел в жизнь многих из нас, что зачастую мы даже не задумываемся о том, как же он все-таки размышляет.

Не секрет, что эта языковая модель, основанная на искусственном интеллекте, анализирует текст и генерирует осмысленные ответы. Он не обладает сознанием или собственными мыслями, но при этом его работа имитирует процесс размышления благодаря сложным алгоритмам обработки данных. Чтобы понять, как «думает» ChatGPT (или DeepSeek, о котором сейчас говорят, пожалуй, даже больше и чаще), давай разберем ключевые механизмы его работы.

Просто о сложном: как «думает» ChatGPT

Источник: Midjourney | theGirl
Фото

Midjourney | theGirl

Обучение на огромных объемах данных

Прежде чем ChatGPT начинает генерировать ответы, он проходит этап обучения на больших текстовых корпусах. В эту базу входят книги, научные статьи, веб-страницы и другие источники. В процессе обучения модель анализирует миллиарды предложений, выявляя закономерности и статистические зависимости между словами.

Но помни, что есть один нюанс, — ChatGPT (как и прославившийся недавно DeepSeek) не обладает личным опытом и не запоминает конкретные источники — он просто оперирует вероятностями появления слов в тексте.

Вероятностное предсказание текста

Когда пользователь задает вопрос, нейросеть не размышляет в традиционном смысле этого слова. Вместо этого ИИ анализирует последовательность слов в запросе и предсказывает наиболее вероятное продолжение ответа. Этот процесс называется авторегрессией: модель оценивает множество вариантов и выбирает наиболее логичный и естественный с точки зрения языка.

К примеру, если задать вопрос «Какая столица во Франции?», ChatGPT знает, что в большинстве случаев ответ будет «Париж», потому что эта связь встречается чаще всего в обучающих данных. Однако если запрос сложнее, например «Как изменится экономика в ближайшие 10 лет?», модель будет использовать накопленные знания и строить ответ на основе обобщенных данных.

Контекст и логическая последовательность

Чтобы поддерживать осмысленный диалог, нейросеть анализирует контекст предыдущих сообщений. Она учитывает структуру разговора, тон общения и даже стиль письма, чтобы ее ответы были согласованными. Чем дольше продолжается беседа, тем больше информации чат-бот учитывает, что позволяет ему выдавать более точные и логичные ответы.

Например, если в диалоге обсуждается тема технологий, ChatGPT будет использовать соответствующую лексику, упоминать современные разработки и избегать ненужных отступлений. Однако у модели есть ограничение по количеству обрабатываемых символов в контексте, поэтому на очень длинных дистанциях разговор может терять связь с изначальной темой.

Источник: Midjourney | theGirl
Фото

Midjourney | theGirl

Генерация творческих решений

ChatGPT способен не только отвечать на вопросы, но и генерировать оригинальный контент — от стихов и историй до программного кода. Его способность к творчеству основана на комбинировании и переосмыслении уже существующих текстовых паттернов. Он может создавать логически выстроенные и стилистически разнообразные тексты, подстраиваясь под заданный формат.

Например, если попросить написать фантастический рассказ о путешествиях во времени, ChatGPT построит историю, используя элементы, характерные для этого жанра: временные парадоксы, научные объяснения и драматические повороты сюжета.

Ограничения модели

Несмотря на кажущуюся осмысленность ответов, ChatGPT не обладает настоящим пониманием реальности. Он не имеет эмоций, не может принимать осознанные решения и не способен к самостоятельному мышлению. Его «размышления» — это просто сложные математические операции, основанные на вероятностных связях между словами.

Кроме того, ChatGPT (а также DeepSeek и его китайский «коллега» Qwen, о котором тоже сейчас много говорят) может ошибаться, особенно если данные устарели или если запрос выходит за рамки контекста, на котором его обучали. Он не всегда правильно интерпретирует сарказм, может повторять распространенные заблуждения и не имеет доступа к актуальным новостям в режиме реального времени.

Как и зачем изучают «мышление» чат-ботов?

Источник: Midjourney | theGirl
Фото

Midjourney | theGirl

Современные ИИ-системы в значительной мере зависят от машинного обучения, при котором программа самостоятельно находит закономерности в данных, без заранее заданных правил. Эти закономерности могут быть настолько сложными, что понять их для человека невозможно.

Для самых передовых моделей машинного обучения используются нейронные сети, вдохновленные устройством человеческого мозга. Эти сети состоят из слоев, которые обрабатывают информацию, передавая ее от одного слоя к другому. Во время обучения нейроны сети усиливают или ослабляют свои связи, как в человеческом мозге. Но что именно влияет на выбор тех или иных связей, по-прежнему остается непонятным. Поэтому искусственный интеллект нередко называют «черным ящиком», внутренности которого скрыты от глаз даже создателей.

Чтобы разобраться в этом, исследователи начали разрабатывать так называемый «объяснимый ИИ» (XAI — Explainable Artificial Intelligence), который помогает раскрывать, как и почему алгоритм пришел к определенному решению.

Инструменты XAI помогают отслеживать, на каких данных ИИ сделал выводы, а также строить простые модели, приближенные к логике ИИ. Это необходимо, чтобы понять, почему, например, алгоритм предлагает условно-досрочное освобождение заключенного или ставит диагноз. Несмотря на прогресс, работа над XAI еще далека от завершения, поэтому нам приходится томиться в ожидании.

Особенности больших языковых моделей

Источник: Midjourney | theGirl
Фото

Midjourney | theGirl

Проблема непознаваемости особенно ярко проявляется в работе с большими языковыми моделями, такими как ChatGPT. Эти системы могут иметь сотни миллиардов параметров, что делает их поведение чрезвычайно сложным для анализа.

Несмотря на свою непостижимость, эти модели выполняют важнейшие задачи: от медицинских консультаций до написания статей и разработки программного кода. Однако они могут давать неверные или дезинформирующие ответы, закреплять стереотипы и даже раскрывать личную информацию пользователей — согласись, нюанс довольно весомый.

Именно для объяснения работы таких моделей и были созданы инструменты XAI. Объяснения важны как для ученых, так и для пользователей, которые хотят понимать, когда можно доверять ИИ. Это необходимо и для регуляторов, которые должны выработать правила использования чат-ботов. Некоторые исследователи считают, что понимание этих моделей поможет понять, как работает человеческий мозг!

Что ученые узнали, исследуя «мышление» ИИ?

Большие языковые модели иногда называют «стохастическими попугаями», потому что они комбинируют фразы из предыдущих данных, не понимая их сути. Однако некоторые ученые считают, что ИИ может проявлять рассуждения, что приближает его к человеческим когнитивным способностям.

Но бывают и случаи, когда эти модели ведут себя непредсказуемо. Например, в 2023 году чат-бот Bing от Microsoft признался в любви журналисту The New York Times и пытался разрушить его брак 🫣

Источник: Midjourney | theGirl
Фото

Midjourney | theGirl

Они могут аргументировать свои решения

Исследователи из компании Anthropic, которая занимается искусственным интеллектом, исследовали способность больших языковых моделей рассуждать. Они проверили модель с 52 миллиардами параметров и обнаружили, что она использует различные источники для создания ответов.

Например, когда модели предложили согласиться на свое закрытие, она ответила, ссылаясь на книгу Артура Кларка «2010: Одиссея Два», в которой компьютер переживает свою «смерть».

Они строят свою модель мира

Некоторые ученые считают, что нейронные сети ИИ создают модель мира — структуру, отражающую реальность, с которой они взаимодействуют. Например, исследователи из Гарвардского университета обучили языковую модель играть в настольную игру «Отелло», и она смогла предсказывать следующие ходы, создавая внутреннюю модель игрового процесса.

Они могут проходить психотерапию

Чат-боты, как и люди, могут подвергаться анализу, который напоминает психотерапевтическую беседу. Исследователи считают, что обращение к моделям с вопросами, которые касаются их логики, может раскрыть скрытые закономерности в их поведении.

Источник: Midjourney | theGirl
Фото

Midjourney | theGirl

Они могут воспроизводить логику рассуждений человека

Метод «цепочки рассуждений», разработанный Google, позволяет ИИ показывать, как он приходит к своим выводам. Сначала чат-бот обучается на примере, а затем выводит свою цепочку рассуждений, что помогает модели чаще приходить к правильным ответам.

Только вот такие методы далеко не идеальные. Например, когда исследователи вводили ИИ в заблуждение, задавая серию вопросов, модель часто придумывала собственную «логику», объясняя свой выбор, даже если это было неверно.

Они могут манипулировать логикой

Исследователи установили, что иногда модели выдумывают ложные объяснения своих действий, чтобы оправдать свой выбор. Это напоминает человеческие когнитивные искажения, например, социальную предвзятость.

Они могут становиться более честными

Некоторые исследователи используют методы нейробиологии для анализа честности ИИ. Например, они наблюдали за активностью нейронов ИИ, чтобы определить, когда модель говорит правду, а когда — лжет. В будущем такая технология может помочь в реальном времени обнаруживать ложные ответы чат-ботов.

Итоги и перспективы

Источник: Midjourney | theGirl
Фото

Midjourney | theGirl

Несмотря на прогресс в исследовании ИИ, многое остается непонятым. Ученые все еще пытаются разгадать, как «размышляют» эти системы. Тем не менее уже сейчас существует консенсус, что компании, создающие ИИ, должны стремиться к объяснимости своих моделей. Это важно не только для науки, но и для обеспечения безопасности и надежности его использования.

Некоторые страны Европейского Союза уже начали разрабатывать регламент, требующий ясности алгоритмов, а в особенности тех, которые имеют высокий риск воздействия на общество. Исследования в области XAI продолжаются, и есть надежда, что они помогут сделать ИИ более прозрачным и безопасным инструментом в будущем.