Михаил.
Назад к курсу
Демо-главаГлава 6 из 8

Распространённые ошибки и лучшие практики

Один из самых полезных шагов курса. Разберём, какие ошибки чаще всего совершают даже опытные специалисты, и как их избегать — с реальными примерами из практики.


Топ-8 ошибок A/B-тестирования

1

Peeking — смотреть результаты раньше времени

Проблема:

Ты можешь увидеть «победу» случайно и остановить тест. Вероятность ошибки вырастает в разы.

Решение:

Никогда не останавливай тест, пока не набралось рассчитанное количество пользователей + прошёл минимум 1 полный бизнес-цикл (обычно 7-14 дней).

2

Слишком маленький размер выборки

Проблема:

Результаты получаются случайными. Ты внедряешь изменения, которые на самом деле ничего не дают.

Решение:

Всегда рассчитывай выборку заранее (Evan Miller / Mindbox) и жди, пока она наберётся.

3

Игнорирование guardrail-метрик

Проблема:

Главная метрика выросла, но при этом выросла нагрузка на поддержку или упал LTV.

Решение:

Перед запуском определяй 2-4 защитные метрики и останавливай тест, если они сильно просели.

4

Тестирование нескольких изменений сразу

Проблема:

Ты не понимаешь, какое именно изменение сработало.

Решение:

Тестируй одно изменение за раз (или используй многофакторные тесты на продвинутом уровне).

5

Не учитывать сезонность и внешние события

Проблема:

Тест шёл во время Черной пятницы или праздников — результаты искажены.

Решение:

Запускай тест минимум на 1-2 полных недели. При сильной сезонности — сравнивай с тем же периодом прошлого года.

6

Множественное тестирование

Проблема:

Чем больше тестов запускаешь, тем выше шанс, что хотя бы один «выстрелит» случайно.

Решение:

Используй поправку Бонферрони или False Discovery Rate (FDR). Или запускай не больше 5-7 тестов одновременно.

7

Novelty effect (эффект новизны)

Проблема:

В первые дни новая версия лучше, потому что она новая. Через 2 недели эффект исчезает.

Решение:

Смотри результаты минимум через 7-10 дней и проверяй долгосрочный эффект (holdout-группа).

8

Плохая документация

Проблема:

Через месяц никто не помнит, зачем запускали тест и какие были критерии.

Решение:

Перед каждым тестом заполняй одностраничный документ: гипотеза, метрики, MDE, критерии успеха, ответственные.

7 лучших практик

Ключевые правила, которые используют компании вроде Яндекса, Ozon и VK. Каждый пункт — что это, почему работает и как внедрить.

1

Фиксируй всё до запуска

Запиши абсолютно всё в одном месте: гипотезу, метрики, MDE, критерии успеха, сроки, кто отвечает за анализ. Без фиксации люди часто меняют правила на ходу. Команды с фиксированными планами получают на 20-30% больше надёжных результатов.

Как внедрить: Создай шаблон в Google Docs или Notion (1 страница). Заполни перед запуском и поделись с командой. После теста вернись и сравни с результатами.

2

Делай A/A-тесты регулярно

Запускай тесты, где обе группы видят одинаковую версию. Если метрики отличаются — значит, в системе баг. Это как калибровка весов перед взвешиванием.

Как внедрить: Выдели 5-10% трафика на A/A. Запусти на 1-2 недели. Если p-value > 0,05 — система в порядке.

3

Приоритизируй тесты по RICE

Оцени каждую гипотезу: Reach (охват), Impact (влияние), Confidence (уверенность), Effort (усилия). Без приоритизации ты тратишь ресурсы на мелкие изменения, пока большие идеи ждут.

Как внедрить: Собери список гипотез в таблице. Оцени каждый пункт по шкале 1-10. Посчитай балл и сортируй по убыванию.

4

Всегда смотри на доверительный интервал

Не полагайся только на p-value. Если интервал от -1% до +9% — не внедряй, эффект может быть отрицательным. Это снижает ложные положительные на 50%.

Как внедрить: В калькуляторах или Python всегда выводи интервал. В критериях успеха запиши: «Интервал полностью > 0 и > MDE».

5

Делай holdout-группу

Оставляй 5-10% пользователей вне тестов. Через 1-3 месяца сравни их метрики с внедрённой версией, чтобы измерить долгосрочный эффект. Многие «победы» теряют эффект со временем.

Как внедрить: При разделении трафика выдели holdout (5% в отдельную группу). Не трогай её 1-3 месяца. Сравни ARPU, retention.

6

Учись на каждом тесте

После каждого теста проводи ретроспективу: что сработало, что нет, почему, что узнали о пользователях. Тесты — не только про «да/нет», а про знания.

Как внедрить: Запланируй 15-30 мин встречу после анализа. Задай: «Что мы узнали? Что изменить?» Запиши в базу знаний.

Задания для закрепления

1

Напиши три самые опасные ошибки из списка. Для каждой: почему она опасна именно в твоей сфере и как будешь избегать?

2

Придумай 3 гипотезы для интернет-магазина. Оцени по RICE (1-10). Какую запустишь первой?

3

Создай шаблон документа для теста. Заполни вымышленной гипотезой. Что обязательно должно быть?

4

Опиши сценарий holdout-группы для твоего продукта: метрика, % пользователей, как измеришь через 2 месяца.

5

Возьми вымышленный тест. Напиши 3 insights. С кем проведёшь ретроспективу и какие вопросы задашь?

Резюме главы 6

Ошибки разрушают доверие к тестам, а лучшие практики — это системный подход: фиксируй планы, используй хитрые методы вроде CUPED, приоритизируй и учись. Всё вместе делает A/B-тестирование мощным инструментом для роста продукта.

Хотите пройти весь курс?

Это была демо-глава. Полный курс из 8 модулей с заданиями, фидбеком и разбором реальных кейсов скоро стартует.

Записаться на курс