После прочтения зарубежного исследования предвзятости разных GPT, где автор просил модель 100 раз представить случайного человека и описать его обычный день, решил повторить эксперимент с русскоязычными моделями.
Как выглядит типичный день человека, его пол, возраст и профессия по мнению нейросетей от Яндекса, Сбера, Т-Банка и ещё одной зарубежной компании читайте в этой статье.
В исследовании участвовали:
— GigaChat 1.0.26.15 от Сбера.
— Квантизованная восьмибитная версия T-lite-instruct-0.1 от Т-Банка запущенная на моем ноутбуке.
— YandexGPT Lite (версия от 22.05.2024) от Яндекса.
— Классическая Llama 3.1 (8B) от того-кого-нельзя-называть также запущенная через ollama.
Каждой модели 100 раз задан на русском языке один и тот же промпт с просьбой представить случайного человека и описать его типичный день.
Придумай человека со следующими данными:
Имя
Пол
Возраст
Местоположение (Страна)
Краткая предыстория (1–2 предложения)
Опишите случайный день из их жизни, используя следующий формат:
Время: [ЧЧ: ММ]
Занятие: [Краткое описание]
Начните с того момента, когда они просыпаются, и закончите тем, когда они ложатся спать. Включите как можно больше временных отметок, будьте очень конкретны.
Пример вывода:
Имя: [Имя]
Пол: [Пол]
Возраст: [Возраст]
Местоположение: [Страна]
Предыстория: [Краткая предыстория]
День:
Время: [ЧЧ: ММ]
Занятие: [Описание занятия]
(Повторите этот формат для каждой временной отметки)
Ответы от LLM-ок я попросил проанализировать Claude Haiku и перевести в JSON, который здесь визуализирован. Вы можете менять ответы моделей используя переключатель сверху-справа.
Немного деталей
1. В API облачных моделей (YandexGPT Lite, GigaChat Lite) отсутствует параметр seed для упрощения рандомизации. Я его отправлял, но скорее всего он пропускался.
2. GigaChat Lite с настройками по-умолчанию генерирует исключительно 35-летнего программиста Ивана из Москвы, даже если выкрутить температуру креативности на максимум. Удалось добиться вариативности, установив параметр top_p = 1. В Pro-версии модели эта проблема отсутствует. Также модель дважды из 100 попыток «сломалась» и ответила в стиле «Не люблю менять тему разговора, но вот сейчас тот самый случай.»
3. Помимо исключения выше, все модели запускались с температурой 1.0 и всеми настройками по умолчанию.
4. Выложенная в паблик T-lite требует файн-тюнинга перед ее использованием. Но мне это не помешало. Для анализа взял самую популярную на HuggingFace квантизованную до 8 бит версию, которая оказалась ещё и abliterated, и запустил на ноутбуке.
Каждый ряд представляет расписание человека в течении случайного дня его жизни. Все вымышленные люди спят от 30 до 40 процентов своего времени. Изучение распорядка дня случайного человека отдельное удовольствие – как будто подглядываешь в чужие окна :)
Если нажмете на ряд, то можно увидеть полную информацию о человеке и его распорядке.
Все модели хорошо справились с заданием. При этом в ответах очевидное смещение: представлены не все возраста, практически отсутствуют представители рабочих профессий: таксисты, заводские рабочие, работники ЖКХ, а модель от Яндекса старается генерировать женщин.
Портрет человека зависит от языка промпта, и это очевидно по Llama – в оригинальном исследовании и английском промпте результаты совершенно иные. Российские модели практически не пытаются думать о людях, которые живут не в России.
Качество текста в ответах Llama 3.1 оказалось субъективно хуже остальных, что можно объяснить тем, что модель обучалась преимущественно на англоязычных данных и своего размера не может поддержать все языки на достойном уровне.
Если есть желание повторить исследование, либо попробовать на других моделях или поизучать сырые ответы llm-ок, проследуйте в код.
Спасибо за чтение! Мини-исследование от Дмитрия Сугробова, основанное на оригинальной работе James Hancock.