О компании и команде
Наша сфера - интернет-траффик и всё, что с ним связано=) + Активно развиваемся в сторону нейросетей
В нашем арсенале более 10 внутренних b2b и b2c проектов собственной разработки.
Текущая задача: выстроить с нуля архитектуру ML отдела для нашего нового, но уже профитного, игрового продукта мирового масштаба, который динамично растет вместе с командой.
Мы формируем новую Data Engineering-команду с амбициозной задачей выстроить Lakehouse-инфраструктуру с нуля. В компании уже есть сильные специалисты и ресурсы во всех смежных направлениях, и теперь нам нужен Data Engineer, который возьмёт на себя ключевую роль в проектировании и развитии гибкой и высокопроизводительной платформы для обработки данных.
Наша цель — обеспечить бизнес и продуктовые команды самым современным стеком, который позволит эффективно обрабатывать потоковые и batch-данные, создавать витрины, запускать ML-модели и применять лучшие практики DataOps/MLOps.
Ожидания от кандидата
- Разработать архитектуру Lakehouse:
- Определять подходящие инструменты (Iceberg/Delta/Hudi),
- Проектировать схемы хранения и структуры таблиц под ACID-транзакционность,
- Встраивать Data Governance и контроль качества.
- Создавать и поддерживать пайплайны:
- Интегрировать данные из множества источников (SQL/NoSQL, API, события в Kafka, RabbitMQ),
- Использовать Spark (PySpark или Scala) для batch- и streaming-обработки,
- Оркестрировать пайплайны через Airflow.
- Обеспечивать производительность и отказоустойчивость:
- Настраивать кластерную инфраструктуру (Docker/Kubernetes) и CI/CD (GitLab/Jenkins/Bitbucket Pipelines),
- Оптимизировать сложные запросы, Spark-джобы и логику распределённых вычислений.
- Внедрять и развивать Data Quality:
- Использовать библиотеки (Great Expectations, dbt tests или аналогичные решения),
- Автоматизировать мониторинг качества данных и отслеживание метрик.
- Работать в тесном контакте с другими командами:
- Аналитики, ML-инженеры, продуктовые команды будут рассчитывать на стабильные витрины и удобный доступ к данным,
- Участвовать в планировании и внедрении новых сервисов и функций, связанных с обработкой больших данных.
- Стать одним из ключевых экспертов:
Условия работы
Уровень дохода обсудим индивидуально — для нас важно найти «своего» человека.