О компании и команде
Продукт Global CAPEX решает задачу повышения эффективности инвестиций в развитие сетей Билайн. В рамках продукта мы прогнозируем трафик и доходы на существующих и будущих базовых станциях, анализируем миграции и паттерны поведения абонентов, ищем локации для улучшения качества сети, строительства нового покрытия и подключения ШПД.
Итак, вам предстоит
- Решать бизнес-задачи с помощью анализа данных и машинного обучения.
- Проводить поиск, выгрузку, статистический анализ и обработку данных.
- Строить и валидировать модели машинного обучения.
- Участвовать во внедрении DS-решений в бизнес-процессы.
- Развивать и поддерживать полный цикл разработки DS/ML-продуктов — от постановки задачи до выведения моделей в production.
Примеры наших задач
- Внедрение ML-решений персонализации продуктовых предложений для клиентов (Next best offer)
- Поиск аномалий на оборудовании, приоритизация инцидентов
- Антифрод и кибербезопасность
- Приоритизация строительства/модернизации базовых станций (прогноз трафика на б/с, прогноз доходности новых территорий)
- Моделирование LTV абонентов и внедрение данной концепции в бизнес-процессы компании
- Модели оттока, различные uplift/response модели, сегментация базы
- А/B тестирование и аналитика кампаний
- Построение профиля абонента: мэтчинг симкарт, поиск социальных групп, построение различных показателей профиля, эмбеддингов и фичей абонента на текстах, кликстримах, геоданных и тп.
- Задачи с гео-данными
- Участие в развитии DS инфраструктуры и внутренних библиотек
Ожидания от кандидата
- Опыт работы Data Scientist от 2 лет
- Уверенное владение Python и основными ML-библиотеками.
- Хорошее понимание принципов работы ML-алгоритмов, опыт их применения на практике.
- Навыки работы с SQL или Spark (можете с их помощью самостоятельно собрать и обработать данные).
- Знание основ статистики (понимаете, что такое p-value, и умеете проверять статистические гипотезы).
- Готовность общаться с бизнесом и отвечать end-to-end за задачу.
Будет плюсом
- Писали production-код.
- Работали с Hadoop или другими инструментами нашего стека.
Наш стек
- Python, Spark, Hadoop, Hive, Airflow, Docker, k8s, MLFlow
Git, Jira, Confluence
Условия работы
- Трудоустройство в аккредитованную ИТ-компанию
- Свободу в принятии решений, возможность влиять на процесс и результат.
- Развитое внутреннее DS/DA комьюнити (100+ человек) с регулярными митапами и встречами по обмену опытом.
- Ежегодный процесс ревью.
- Десятки Пбайт разнообразных данных — от классических табличных до гео, графов, кликстримов, текстов и картинок.
- Развитую MLOps инфраструктуру и процессы, мощный кластер с GPU.
- Внешнее и внутреннее обучение, участие в митапах и конференциях.
- Гибкий график работы.
- Полис добровольного медицинского страхования, обслуживаемый в лучших клиниках.
- Корпоративные скидки на фитнес, обучение, путешествия и т.п.
- Служебную сотовую связь