LLM и ML в деле: старт по опыту Kolesa

После стремительного распространения ChatGPT интерес к искусственному интеллекту резко вырос, однако в Kolesa Group подчеркивают, что такие технологии не стоит воспринимать как универсальное решение для любой задачи. По словам руководителя отдела ML & Operations компании Хамбара Дусалиева, выбор между AI, ML и LLM должен начинаться не с модного инструмента, а с понимания конкретной проблемы, целей и ограничений.

В компании исходят из того, что любое решение должно быть связано с миссией бизнеса и реальными потребностями пользователей. Сначала команда определяет, существует ли сама проблема, затем формулирует, в чем она состоит и почему ее важно устранить. Только после этого рассматриваются возможные подходы: изменение процессов, доработка продукта, введение правил, автоматизация, классические алгоритмы или машинное обучение. Использование AI в этой логике рассматривается как один из рабочих инструментов, а не как самоцель.

Дусалиев поясняет, что искусственный интеллект относится к области Data Science и связан со способностью компьютерных систем имитировать человеческие когнитивные функции, включая восприятие, речь и управление. Машинное обучение является направлением внутри AI и представляет собой набор алгоритмов, на базе которых строятся такие решения. LLM, в свою очередь, — это разновидность машинного обучения, предназначенная для работы с текстом: такие модели умеют читать, писать и отвечать на вопросы. Одним из примеров является ChatGPT. По данным McKinsey & Company за 2025 год, ИИ применяют хотя бы в одной бизнес-функции 88% компаний в мире. По данным Hostiger, около 67% организаций уже задействуют LLM в задачах, связанных с генеративным AI.

Перед внедрением подобных решений в Kolesa Group советуют заранее ответить на несколько практических вопросов: во сколько обойдется запуск с точки зрения денег, инфраструктуры и трудозатрат, по каким показателям будет оцениваться эффективность, а также что случится в случае ошибки модели. Поскольку ошибки неизбежны, компания рекомендует сразу продумывать защитные механизмы: ограничивать автоматические действия модели, предусматривать проверку человеком, возможность быстрого отката и процедуры исправления последствий в случаях, когда система выдала неверный ответ или дезинформировала пользователя.

Наиболее сильной стороной LLM в компании считают гибкость. В качестве примера приводится анализ качества работы операторов колл-центра. Критерии такой оценки могут часто меняться: в один момент важна вежливость, затем — работа с возражениями или реакция на отказ. При неизменном контексте достаточно скорректировать запрос к модели, чтобы она начала искать другие признаки, без дополнительного переобучения. По этой причине LLM особенно полезны там, где требования меняются со временем, общий контекст остается примерно одинаковым, результат предназначен для чтения человеком, а задержка ответа в пределах миллисекунд не имеет решающего значения.

При этом у LLM есть и ограничения. Такие модели плохо подходят для сценариев, где критична почти мгновенная реакция системы, поскольку обращение к модели создает задержки. Сложности возникают и при работе с крупными потоками данных, например в рекомендательных системах или при анализе логов, поступающих тысячами событий в секунду, поскольку объем контекста у LLM ограничен. Еще один проблемный случай — чувствительная информация: если пользователи пересылают личные документы или персональные данные, отправка такого контента внешнему провайдеру становится отдельным источником риска.

Опыт Kolesa Group показывает, что в ряде задач классические ML-модели оказываются эффективнее. Так произошло с борьбой со спамом в сообщениях между пользователями сервисов компании. Изначально предполагалось показывать сообщения LLM и определять, являются ли они спамом, но на практике этот подход оказался слишком сложным и недостаточно точным для использования в продукте. Среди причин в компании называют медленный ответ, риски, связанные с персональными данными, и частые ошибки, из-за которых блокировались обычные сообщения. В итоге была создана классическая ML-модель, для которой вручную разметили около 112 тысяч сообщений. Этот путь занял больше времени, но дал устойчивый результат. В 2025 году на Kolesa.kz с ее помощью было заблокировано почти 1 млн спам-сообщений, а ежедневно система выявляет 91% спама.

Этот кейс, по словам компании, показывает необходимость заранее сравнивать подходы и считать стоимость. Облачные LLM обычно оплачиваются исходя из объема обработанного и сгенерированного текста, поэтому с ростом аудитории увеличиваются и расходы. Развертывание модели на собственной инфраструктуре может повысить безопасность данных, но при этом требует больших затрат и более сложной поддержки.

В то же время для чат-бота поддержки LLM в Kolesa Group считают подходящим решением. В таком сценарии пользователь задает вопрос и ожидает понятный текстовый ответ с учетом контекста и предыдущего диалога, а именно генерация текста является сильной стороной языковых моделей. При этом компания подчеркивает, что еще на старте нужно определить, где будут храниться данные — в облаке или в self-hosted-среде, поскольку у каждого варианта есть свои плюсы и ограничения.

Еще один пример — речевая аналитика в колл-центре. Сначала команда использовала традиционный подход с обучением собственных моделей, однако он оказался трудно масштабируемым. Разметка диалогов требовала высокой квалификации и фактически зависела от супервайзеров, у которых было мало времени: в среднем один человек мог обработать не больше 50 диалогов в день. Данных не хватало, требования часто менялись, а запуск нового языка означал повторение всего процесса. После перехода на LLM-подход команда смогла работать с разными сценариями и языками без постоянного переобучения и трудоемкой разметки. В результате сбор аналитики сократился с двух дней до 40 минут, а качество звонков по внутренней оценке аналитиков выросло на 5 процентных пунктов.

В Kolesa Group резюмируют, что искусственный интеллект приносит пользу только тогда, когда соответствует конкретной задаче, ограничениям и ожиданиям от результата. В компании считают, что LLM лучше использовать там, где нужен гибкий текстовый ответ для человека, а классические ML-модели — в задачах, где на первом месте скорость, масштабируемость и предсказуемость. Главный принцип выбора технологии, по их оценке, заключается в том, что он должен начинаться с постановки задачи, а не с самого инструмента.

Другие публикации

Акции Nebius взлетели на 42,2% после сделки с Meta

Из-за ошибки ИИ женщина полгода провела в тюрьме