Skip navigation EPAM

EPAM Data Science & Business Intelligence Hiring Weeks

6 – 17 сентября 2021

Онлайн

Мероприятие состоялось. Если вы хотите присоединиться к компании EPAM, обратите внимание на открытые позиции.

Приглашаем Data Science и Business Intelligence-разработчиков Middle+ стать частью команды EPAM и получить welcome-бонус в размере одного оклада. Заполните регистрационную форму, получите подтверждение, пройдите интервью и получите оффер в течение 48 часов!

Пройдите интервью в рамках Hiring Weeks и станьте частью нашей команды!

ЧЕМ ВЫ БУДЕТЕ ЗАНИМАТЬСЯ:

  • Мы берем людей в компанию, а не под проект
  • В основном наши заказчики – зарубежные компании (США и Европа). Здорово, если вашего уровня английского языка будет достаточно для общения и участия в митингах (intermediate и выше). Тем, у кого уровень английского ниже, мы сможем предложить русскоязычные проекты и корпоративные языковые курсы.  
  • Перед вами будут стоять интересные и довольно сложные задачи. Мы можем обсуждать позиции middle или senior, если ваш опыт работы в DS или BI – 3 года и более.

ЧТО МЫ ПРЕДЛАГАЕМ:

  • Хорошо отлаженный процесс разработки (EPAM сертифицирован CMMI 4 уровня)
  • Возможность релокации в другой офис ЕРАМ (30+ стран)  
  • Получение международного опыта (большинство заказчиков – зарубежные компании) 
  • Массу возможностей для профессионального развития (наши образовательные платформы включают 17000+ курсов и тренингов для развития технических и не только скиллов - например, «Школа архитекторов», public speaking и другие) и самореализации (мы поддерживаем большое количество профильных конференций и развиваем свои комьюнити: open days, meetups и т.д.)  
  • Прозрачный карьерный рост внутри компании (четкие матрицы компетенций для каждого грейда и возможность проходить ассессмент на следующий уровень по желанию)
  • Социальный пакет (ДМС, курсы английского и другие бенефиты)
  • Гибкий график работы
  • Команду коллег-профессионалов (некоторых вы могли видеть спикерами на конференциях или читать их блоги на профессиональных ресурсах) 
  • Чем больше ваш опыт и знания, тем больше проектов и позиций для вас открыты! Самое основное – в описаниях наших вакансий и примеров проектов)

DATA SCIENCE 

Обработка больших объемов структурированных и неструктурированных данных с использованием прогрессивных аналитических решений.  Как Data Science-специалистам, вам предстоит участие во всем цикле работ по построению, оценке и внедрению моделей машинного обучения для решения практических задач: рекомендательные системы, компьютерное зрение, NLP, временные ряды.

BUSINESS INTELLIGENCE

BI-инженеры помогают клиентам построить систему, позволяющую анализировать важные для бизнеса параметры и KPI. Процесс включает в себя три части. Warehousing: организация аналитического хранилища данных. ETL: настройка процессов сбора информации из множества источников, ее очистка и приведение к необходимому формату. Reporting: подготовка визуализаций и представление табличных данных в графиках.

ОТКРЫТЫЕ ПОЗИЦИИ

DATA SCIENCE

BUSINESS INTELLIGENCE

Data Scientist – Computer Vision

Data Scientist – Computer Vision 

ТРЕБОВАНИЯ
БУДЕТ ПЛЮСОМ
ПРИМЕРЫ ПРОЕКТОВ
ТРЕБОВАНИЯ

ТРЕБОВАНИЯ:

 

 

  • Умение  писать код на Python  
  • Знание одного из актуальных Deep Learning фреймворков (PyTorch, TF)  
  • Опыт работы в задачах детектирования объектов, сегментации изображений и видео  
  • Опыт работы с современными нейросетевыми моделями для обработки изображений  
  • Отличное знание основных моделей для классификации изображений, детектирования объектов и сегментации 
БУДЕТ ПЛЮСОМ

БУДЕТ ПЛЮСОМ:

 

 

  • Опыт работы с Tensorflow Object Detection API, Detectron, MM Detection и MediaPipe  
  • Опыт работы с inference фреймворками  
  • Опыт оптимизации моделей «под железо» с использованием различных техник (pruning, quantization, distillation)  
  • Опыт с ML решениями от AWS, Azure или GCP
ПРИМЕРЫ ПРОЕКТОВ

ПРИМЕРЫ ПРОЕКТОВ:

 

 

1. Заказчик — крупная международная компания, разрабатывающая и производящая лекарственные средства, средства гигиены и медицинское оборудование.  

Проект — это система, помогающая клиентам посредством телемедицины получать консультации о здоровье наружного слухового прохода. Наша команда разрабатывает алгоритмы компьютерного зрения, которые позволяют клиенту производить самодиагностику и упрощают работу медицинских специалистов. Так же команда отвечает за алгоритмы выделения фрагментов видеозаписи, на которых наиболее вероятны патологии. Решение было разработано с использованием современных методов глубокого обучения в сочетании с классическими методами из компьютерного зрения.   

Стек: Python + Tensorflow + OpenCV + AWS   

 

2. Заказчик – международная компания, которая специализируется на производстве средств ухода за кожей, декоративной косметики и парфюмерии и средств ухода за волосами.   

Компания разрабатывает мобильное приложение, которое позволяет накладывать различные эффекты на лица клиентов компании для демонстрации работы продаваемого компании товара (косметика, средства ухода за кожей и так далее). Команда ЕПАМ отвечает полностью за разработку этого приложения (с разработки концепции до финального деплоймента). Data Sience команда отвечает за разработку пайплайнов обработки видео потока с камеры телефона в реальном времени с использованием современных нейросетевых архитектур и фреймворков для их оптимизации под железо.  

Стек: Python + Pytorch + Azure

Data Scientist - NLP

Data Scientist - NLP

ТРЕБОВАНИЯ
БУДЕТ ПЛЮСОМ
ПРИМЕРЫ ПРОЕКТОВ
ТРЕБОВАНИЯ

ТРЕБОВАНИЯ:

 

 

  • Умение писать код на Python
  • Знать один из актуальных Deep Learning фреймворков (PyTorch, TF)
  • Опыт работы в задачах обработки текстовых данных (классификация, NER, retrieval etc.)
  • Понимание работы эмбедингов
  • Знание современных методов представления текста, опыт работы с ними
  • Знание современных нейросетевых архитектур и опыт их применения для практических задач 
БУДЕТ ПЛЮСОМ

БУДЕТ ПЛЮСОМ:

 

 

  • Опыт работы с движками OCR (tesseract, AWS textract, etc.) и понимание как они работают «под капотом»
  • Опыт с inference фреймворками
  • Понимание нейросетевых моделей для обработки изображений
  • Опыт в задачах генерации и саммаризации текста
  • Опыт работы с ML-решениями от AWS, Azure и GCP
ПРИМЕРЫ ПРОЕКТОВ

ПРИМЕРЫ ПРОЕКТОВ:

 

 

1. Заказчик – международная компания, разрабатывающая программное обеспечение для автоматизации документооборота нефтегазовых компаний.

Проект – это система извлечения сущностей из неструктурированных документов. Данную систему как бэкэнд используют различные команды на стороне заказчика как для интеграции в автоматизированные пайплайны обработки документов, так и в качестве источника для обогащения некоторых хранилищ данных, на основе которых уже строят свои аналитические продукты. Наш проект использует современные нейросетевые архитектуры (SOTA) и, кроме обучения на размеченных данных, использует самые современные технологии обучения представлений для данных с использованием подхода metric learning.

Стек: Python + Pytorch  

 

2. Заказчик – международная компания, специализирующаяся в финансовой аналитике.

Компания строит аналитические решения на основе обработки документов. В рамках проекта разрабатываются несколько решений для упрощения работы аналитической команды заказчика: автоматизированные пайплайны извлечения именованных сущностей из сканированных документов, пайплайн для корректного извлечения данных из таблиц, решение для саммаризации документов, которое улучшает поисковый движок заказчика. Все решения построены на современных нейросетевых алгоритмах и, кроме обучения на размеченных данных, активно используют такие техники, как weak supervision и metric learning. Продуктизация решений осуществляется с использованием AWS-стека. 

Стек: Python + Tensorflow + AWS Sagemaker + AWS lambda

Data Scientist – Time Series

Data Scientist – Time Series

ТРЕБОВАНИЯ
БУДЕТ ПЛЮСОМ
ПРИМЕРЫ ПРОЕКТОВ
ТРЕБОВАНИЯ

ТРЕБОВАНИЯ:

 

 

  • Умение писать код на Python  
  • Знание классических подходов машинного обучения (градиентный бустинг, логистическая регрессия и так далее)  
  • Опыт решения задач классического машинного обучения на табличных данных (задачи регрессии и классификации)  
  • Опыт работы в задачах построения предиктивных моделей с использованием различных методов обработки временных рядов  
  • Знание методов работы с временными рядами
БУДЕТ ПЛЮСОМ

БУДЕТ ПЛЮСОМ:

 

 

  • Знание одного из актуальных Deep Learning фреймворков (PyTorch, TF)  
  • Знание методов байесовского вывода  
  • Опыт использования современных deep learning моделей для задачи анализа временных рядов  
  • Опыт работы с алгоритмами поиска аномалий для временных рядов 
  • Опыт с ML решениями от AWS, Azure или GCP  
  • Опыт использования pySpark
ПРИМЕРЫ ПРОЕКТОВ

ПРИМЕРЫ ПРОЕКТОВ:

 

 

1. Заказчик - международная компания, специализирующаяся в финансовой аналитике.   

Проект представляет из себя систему, помогающую прогнозировать спрос на различные нефтепродукты на рынке США. На основе комбинации данных из открытых источников, данных от вендоров заказчика и результатов работы аналитической команды заказчика, разрабатывается система предсказания спроса на нефтепродукты. В решении используются как классические бустинги и методы обработки временных рядов, так и современные нейросетевые архитектуры.  

Стек: Python + LGBM + Prophet + Tensorflow + AWS   

 

2. Заказчик – международная компания, являющая одним из крупнейших производителей потребительских товаров.   

Компания разрабатывает платформу для оптимизации логистики. Одним из компонентов этой системы является решение по прогнозированию спроса на различные группы товаров. Это решение разрабатывается командой ЕПАМ. Решение комбинирует в себе как классические ML-подходы, так и современные подходы байесовского вывода.  

Стек: Python + LGBM + pymc3 + Azure   

Machine Learning Engineer

Machine Learning Engineer

ТРЕБОВАНИЯ
БУДЕТ ПЛЮСОМ
ПРИМЕРЫ ПРОЕКТОВ
ТРЕБОВАНИЯ

ТРЕБОВАНИЯ:

 

 

  • Умение писать код на Python (от уровня Middle)  
  • Знание классических подходов машинного обучения (градиентный бустинг, логистическая регрессия и далее)  
  • Хорошее знание PySpark  
  • Опыт работы с docker  
  • Опыт продуктизации ML моделей  
  • Опыт использования MLflow и Airflow в продакшен проектах  
  • Опыт работы с мл решениями хотя бы одного крупного клауд провайдера (AWS, Azure или GCP)
БУДЕТ ПЛЮСОМ

БУДЕТ ПЛЮСОМ:

 

 

  • Знание одного из актуальных Deep Learning фреймворков (PyTorch, TF)  
  • Опыт с Inference фреймворками (Deep Learning Inference)  
  • Опыт продуктизации deep learning моделей  
  • Опыт работы с Kubernetes
ПРИМЕРЫ ПРОЕКТОВ

ПРИМЕРЫ ПРОЕКТОВ:

 

 

1. Заказчик — крупная металлургическая компания.  

В рамках проекта разрабатывается система контроля качества металлических изделий с использованием технологий глубокого обучения (сверточные нейросети). Кроме разработки самих моделей команда со стороны ЕПАМа должна обеспечить продуктизацию их в скалируемые пайплайны и обеспечить стабильную работу всей системы.  

Стек: Python + Tensorflow + Kubernetes  

 

2. Заказчик – международная компания, которая специализируется на производстве одежды и обуви.   

В рамках проекта наша команда занимается построением фреймворка для прогнозирования спроса на сезонные продукты и оценке потенциального спроса на новые модели.  Команда строит скалируемое решение, которое утилизирует современные методы анализа временных рядов на огромном объеме данных.  

Стек: Python + LGBM + PySpark + Airflow + AWS 

BI Reporting Engineer

BI Reporting Engineer

ТРЕБОВАНИЯ
ПРИМЕРЫ ПРОЕКТОВ
ТРЕБОВАНИЯ

ТРЕБОВАНИЯ:

 

 

  • Опыт работы с RDBMS базами данных (Oracle, MS SQL, PostgreSQL) от 2-х лет
  • Знание SQL на высоком уровне
  • Опыт моделирования хранилищ данных и ETL процессов
  • Опыт оптимизации запросов
  • Опыт работы с любым BI инструментом (Power BI, Tableau, Tibco spotfire & etc) и желание совершенствовать свои навыки в данной области
  • Знание английского языка: Intermediate и выше
ПРИМЕРЫ ПРОЕКТОВ

ПРИМЕРЫ ПРОЕКТОВ:

 

 

1. Заказчик – мировой лидер в области международного обучения.

Проект по проектированию и разработке отчётов и дашбордов на Power BI, включая проектирование и разработку Data Marts в Azure Analytical Services. Здесь будет необходим опыт работы с MS SSIS, MS SSRS, MS SSAS, DAX и MDX. В проекте также планируются к использованию Power Apps и другие утилиты Microsoft Power Platform.

Распределенная и кроссфункциональная команда 20+ человек.

Стек – Power BI, DAX, MDX, Azure Analytical Ser-vices

 

2. Заказчик – всемирно известная компания, производитель продуктов питания.

Проект – создание дата платформы и аналитической системы для оптимизации процессов производства и продаж. В настоящее время решение использует множество различных компонентов, не отвечающих современным требованиям по оперативности обработки данных и полноты отчётности. Проект комплексный, с вовлечением Data Engineers, Data Scientists, Data Integration and Data Analytics And Visualization Engineers.

Распределенная и кроссфункциональная команда 50+ человек.

Стек – Databricks, SnowFlake, Informatica Cloud, Azure Data Factory, Power BI, Azure.

Database expert and Cloud

Database expert and Cloud

ТРЕБОВАНИЯ
БУДЕТ ПЛЮСОМ
ПРИМЕР ПРОЕКТА
ТРЕБОВАНИЯ

ТРЕБОВАНИЯ:

 

 

  • Опыт администрирования СУБД Oracle не менее 5 лет
  • Навыки кодинга в SQL Server/Oracle/DB2 SQL
  • Опыт проектирования и разработки структур баз данных
  • Опыт работы с тюнингом SQL-запросов
  • Отличные коммуникативные навыки
  • Уровень разговорного английского языка B2 и выше
БУДЕТ ПЛЮСОМ

БУДЕТ ПЛЮСОМ:

 

 

  • Опыт поддержки миграции баз данных между on-prem и облачными средами
  • Опыт работы с Public Cloud
ПРИМЕР ПРОЕКТА

ПРИМЕР ПРОЕКТА:

 

 

EPAM имеет первый в своем роде инструмент оценки миграции в облако, который помогает компаниям анализировать среды баз данных и создавать визуальную дорожную карту миграции в облако, чтобы ускорить миграцию базы данных в облако.

Используя сложную логику скоринга для ранжирования БД по сложности, наше решение оценивает базы данных по конфигурации, схеме, бизнес-логике и характеристикам собственных баз данных, выявляет потенциальные проблемы миграции и предлагает соответствующие обходные пути. 

Стек – Oracle PostgreSQL, Public Clouds (AWS/GCP/Azure), Python.

Data Integration 

Data Integration

ТРЕБОВАНИЯ
БУДЕТ ПЛЮСОМ
ПРИМЕР ПРОЕКТА
ТРЕБОВАНИЯ

ТРЕБОВАНИЯ:

 

 

  • Опыт работы с Oracle, SQL, PL/SQL
  • Умение оптимизировать запросы, аналитические функции
  • Опыт работы с транзакциями, блокировками
  • Знание коллекций, объектных типов данных
  • Опыт работы с триггерами, пакетами 
БУДЕТ ПЛЮСОМ

БУДЕТ ПЛЮСОМ:

 

 

 

 

Опыт работы с Talend/ Informatica/ MS SSIS/ SSAS/Oracle Data Integrator (ODI)

ПРИМЕР ПРОЕКТА

ПРИМЕР ПРОЕКТА:

 

 

Заказчик – одна из крупнейших европейских сетей супермаркетов и крупнейшая в Нидерландах.

Проект по автоматизации и оптимизации логистики и складского управления – добавление нового функицонала к существующей системе и перенос системы на Azure. Проект комплексный, со стороны BI экспертизы требует опыта разработки на Oracle PL/SQL и умения настраивать производительность как PL/SQL, так и SQL.

Распределенная и кроссфункциональная команда 20+ человек

Стек – Oracle, Kafka, Kotlin, Kubernetes, Azure. 

ОТКРЫТЫЕ ПОЗИЦИИ

DATA SCIENCE

BUSINESS INTELLIGENCE

Data Scientist – Computer Vision

ТРЕБОВАНИЯ:

  • Умение  писать код на Python  
  • Знание одного из актуальных Deep Learning фреймворков (PyTorch, TF)  
  • Опыт работы в задачах детектирования объектов, сегментации изображений и видео  
  • Опыт работы с современными нейросетевыми моделями для обработки изображений  
  • Отличное знание основных моделей для классификации изображений, детектирования объектов и сегментации

БУДЕТ ПЛЮСОМ:

  • Опыт работы с Tensortflow Object D etection API, Detection, MM Detection и MediaPipe
  • Опыт в inference фреймворками
  • Опыт оптимизации моделей "под железо" с использованием различных техник (pruning, quantizatization, distillation)
  • Опыт работы с ML-решениями от AWS, Azure и GCP

ПРИМЕРЫ ПРОЕКТОВ:

1. Заказчик — крупная международная компания, разрабатывающая и производящая лекарственные средства, средства гигиены и медицинское оборудование.  

Проект — это система, помогающая клиентам посредством телемедицины получать консультации о здоровье наружного слухового прохода. Наша команда разрабатывает алгоритмы компьютерного зрения, которые позволяют клиенту производить самодиагностику и упрощают работу медицинских специалистов. Так же команда отвечает за алгоритмы выделения фрагментов видеозаписи, на которых наиболее вероятны патологии. Решение было разработано с использованием современных методов глубокого обучения в сочетании с классическими методами из компьютерного зрения.   

Стек: Python + Tensorflow + OpenCV + AWS   

 

2. Заказчик – международная компания, которая специализируется на производстве средств ухода за кожей, декоративной косметики и парфюмерии и средств ухода за волосами.   

Компания разрабатывает мобильное приложение, которое позволяет накладывать различные эффекты на лица клиентов компании для демонстрации работы продаваемого компании товара (косметика, средства ухода за кожей и так далее). Команда ЕПАМ отвечает полностью за разработку этого приложения (с разработки концепции до финального деплоймента). Data Sience команда отвечает за разработку пайплайнов обработки видео потока с камеры телефона в реальном времени с использованием современных нейросетевых архитектур и фреймворков для их оптимизации под железо.  

Стек: Python + Pytorch + Azure

Data Scientist - NLP

ТРЕБОВАНИЯ:

  • Умение писать код на Pyton
  • Знание одного из актуальных Deep Learning  фреймворков (PyTorch, TF)
  • Опыт работы в задачах обработки текстовых данных (классификация, NER, retrieval, etc.)
  • Понимание работы эмбедингов
  • Знание современных методов представление текста, опыт работы с ними
  • Знание современных нейросетевых архитектур и опыт их применения для практических задач

БУДЕТ ПЛЮСОМ:

  • Опыт работы с движками OCR (tesseract, AWS text ract, etc.) и понимание как они работают "под капотом"
  • Опыт с inference фреймворками
  • Понимание нейросетевых моделей для обработки изображений
  • Опыт в задачах генерации и саммаризации текста
  • Опыт работы с ML- решениями от AWS, Azure и GCP

ЧЕМ ВЫ БУДЕТЕ ЗАНИМАТЬСЯ:

1. Заказчик – международная компания, разрабатывающая программное обеспечение для автоматизации документооборота нефтегазовых компаний.

Проект – это система извлечения сущностей из неструктурированных документов. Данную систему как бэкэнд используют различные команды на стороне заказчика как для интеграции в автоматизированные пайплейны обработки документов, так и в качестве источника для обогащения некоторых хранилищ данных, на основе которых уже строят свои аналитические продукты. Наш проект использует современные нейросетевые архитектуры (SOTA) и, кроме обучения на размеченных данных, использует самые современные технологии обучения представлений для даных с использованием подхода metric learning.

Стек: Python + Pytorch  

 

2. Заказчик – международная компания, специализирующаяся в финансовой аналитике.

Компания строит аналитические решения на основе обработки документов. В рамках проекта разрабатываются несколько решений для упрощения работы аналитической команды заказчика: автоматизированные пайплайны извлечения именованных сущностей из сканированных документов, пайплайн для корректного извлечения данных из таблиц, решение для саммаризации документов, которое улучшает поисковой движок заказчика. Все решения построены на современных нейросетевых алгоритмах и, кроме обучения на размеченных данных, активно используют такие техники, как weak supervision и metric learning. Продуктизация решений осуществляется с использованием AWS-стека.

Стек: Python + Tensorflow + AWS Sagemaker + AWS lambda

Data Scientist – Time Series 

ТРЕБОВАНИЯ:

  • Умение писать код на Python  
  • Знание классических подходов машинного обучения (градиентный бустинг, логистическая регрессия и так далее)  
  • Опыт решения задач классического машинного обучения на табличных данных (задачи регрессии и классификации)  
  • Опыт работы в задачах построения предиктивных моделей с использованием различных методов обработки временных рядов  
  • Знание методов работы с временными рядами 

БУДЕТ ПЛЮСОМ:

  • Знание одного из актуальных Deep Learning фреймворков (PyTorch, TF)
  • Знание методов баесовского вывода
  • Опыт использования современных deep learning моделей для задачи анализа временных рядов
  • Опыт работы с алгоритмами поиска аномалий для временныз рядов
  • Оыт с ML решениями от AWS, Azure или GCP
  • Опыт использования pySpark

ПРИМЕРЫ ПРОЕКТОВ:

1. Заказчик - международная компания, специализирующаяся в финансовой аналитике.

Проект представляет из себя систему, помогающую прогнозировать спрос на различные нефтепродукты на рынке США. На основе комбинации данных из открытых источников, данных от вендоров заказчика и результатов работы аналитической команды заказчика, разрабатывается система предсказания спроса на нефтепродукты. В решении используются классические бустинги и методы обработки временных рядов, так и современные нейросетевые архитектуры.

Стек: Python + LGBM + Prophet + Tensorflow + AWS   

  

2. Заказчик – международная компания, являющая одним из крупнейших производителей потребительских товаров.   

Компания разрабатывает платформу для оптимизации логистики. Одним из компонентов этой системы является решение по прогнозированию спроса на различные группы товаров. Это решение разрабатывается командой ЕПАМ. Решение комбинирует в себе как классические ML-подходы, так и современные подходы байесовского вывода.  

Стек: Python + LGBM + pymc3 + Azure  

Machine Learning Engineer

ТРЕБОВАНИЯ:

  • Умение писать код на Python (от уровня Middle)  
  • Знание классических подходов машинного обучения (градиентный бустинг, логистическая регрессия и далее)  
  • Хорошее знание PySpark  
  • Опыт работы с docker  
  • Опыт продуктизации ML моделей  
  • Опыт использования MLflow и Airflow в продакшен проектах  
  • Опыт работы с мл решениями хотя бы одного крупного клауд провайдера (AWS, Azure или GCP) 

БУДЕТ ПЛЮСОМ:

  • Знание одного из актуальных Deep Learning фреймворков (PyTorch, TF)
  • Опыт с Inference фреймворками (Deep Learnig Inference)
  • Опыт продуктизации deep learning моделей
  • Опыт работы с Kubernetes

ПРИМЕРЫ ПРОЕКТОВ:

1. Заказчик — крупная металлургическая компания.  

В рамках проекта разрабатывается система контроля качества металлических изделий с использованием технологий глубокого обучения (сверточные нейросети). Кроме разработки самих моделей команда со стороны ЕПАМа должна обеспечить продуктизацию их в скалируемые пайплайны и обеспечить стабильную работу всей системы.  

Стек: Python + Tensorflow + Kubernetes

  

2. Заказчик – международная компания, которая специализируется на производстве одежды и обуви.   

В рамках проекта наша команда занимается построением фреймворка для прогнозирования спроса на сезонные продукты и оценке потенциального спроса на новые модели.  Команда строит скалируемое решение, которое утилизирует современные методы анализа временных рядов на огромном объеме данных.  

Стек: Python + LGBM + PySpark + Airflow + AWS  

BI Reporting Engineer

ТРЕБОВАНИЯ:

  • Опыт работы с RDBMS базами данных (Oracle, MS SQL, PostgreSQL) от 2-х лет
  • Знание SQL на высоком уровне
  • Опыт моделирования хранилищ данных и ETL процессов
  • Опыт оптимизации запросов
  • Опыт работы с любым BI инструментом (Power BI, Tableau, Tibco spotfire & etc) и желание совершенствовать свои навыки в данной области
  • Знание английского языка: Intermediate и выше

ПРИМЕРЫ ПРОЕКТОВ:

1. Заказчик – мировой лидер в области международного обучения.

Проект по проектированию и разработке отчётов и дашбордов на Power BI, включая проектирование и разработку Data Marts в Azure Analytical Services. Здесь будет необходим опыт работы с MS SSIS, MS SSRS, MS SSAS, DAX и MDX. В проекте также планируются к использованию Power Apps и другие утилиты Microsoft Power Platform.

Распределенная и кроссфункциональная команда 20+ человек.

Стек – Power BI, DAX, MDX, Azure Analytical Ser-vices

 

2. Заказчик – всемирно известная компания, производитель продуктов питания.

Проект – создание дата платформы и аналитической системы для оптимизации процессов производства и продаж. В настоящее время решение использует множество различных компонентов, не отвечающих современным требованиям по оперативности обработки данных и полноты отчётности. Проект комплексный, с вовлечением Data Engineers, Data Scientists, Data Integration and Data Analytics And Visualization Engineers.

Распределенная и кроссфункциональная команда 50+ человек.

Стек – Databricks, SnowFlake, Informatica Cloud, Azure Data Factory, Power BI, Azure.

Database expert and Cloud

ТРЕБОВАНИЯ:

  • Опыт администрирования СУБД Oracle не менее 5 лет
  • Навыки кодинга в SQL Server/Oracle/DB2 SQL
  • Опыт проектирования и разработки структур баз данных
  • Опыт работы с тюнингом SQL-запросов
  • Отличные коммуникативные навыки
  • Уровень разговорного английского языка B2 и выше

БУДЕТ ПЛЮСОМ:

  • Опыт поддержки миграции баз данных между on-prem и облачными средами
  • Опыт работы с Public Cloud

ПРИМЕР ПРОЕКТА:

EPAM имеет первый в своем роде инструмент оценки миграции в облако, который помогает компаниям анализировать среды баз данных и создавать визуальную дорожную карту миграции в облако, чтобы ускорить миграцию базы данных в облако.

Используя сложную логику скоринга для ранжирования БД по сложности, наше решение оценивает базы данных по конфигурации, схеме, бизнес-логике и характеристикам собственных баз данных, выявляет потенциальные проблемы миграции и предлагает соответствующие обходные пути. 

Стек – Oracle PostgreSQL, Public Clouds (AWS/GCP/Azure), Python. 

Data Integration

ТРЕБОВАНИЯ:

  • Опыт работы с Oracle, SQL, PL/SQL
  • Умение оптимизировать запросы, аналитические функции
  • Опыт работы с транзакциями, блокировками
  • Знание коллекций, объектных типов данных
  • Опыт работы с триггерами, пакетами

БУДЕТ ПЛЮСОМ:

Опыт работы с Talend/ Informatica/ MS SSIS/ SSAS/Oracle Data Integrator (ODI)

ПРИМЕР ПРОЕКТА:

Заказчик – одна из крупнейших европейских сетей супермаркетов и крупнейшая в Нидерландах.

Проект по автоматизации и оптимизации логистики и складского управления – добавление нового функицонала к существующей системе и перенос системы на Azure. Проект комплексный, со стороны BI экспертизы требует опыта разработки на Oracle PL/SQL и умения настраивать производительность как PL/SQL, так и SQL.

Распределенная и кроссфункциональная команда 20+ человек

Стек – Oracle, Kafka, Kotlin, Kubernetes, Azure. 

ТРИ ПРОСТЫХ ШАГА, ЧТОБЫ ПОЛУЧИТЬ ОФФЕР И WELCOME-БОНУС!

ЗАПОЛНИТЕ ФОРМУ

Пожалуйста, заполните все обязательные поля и приложите резюме.

ПОЛУЧИТЕ ПОДТВЕРЖДЕНИЕ

Все заявки рассматриваются в индивидуальном порядке. Каждому участнику будет направлен ответ в течение 3-х рабочих дней.

ПРОЙДИТЕ ИНТЕРВЬЮ

Интервью проходят в онлайн-формате.

ЗАЧЕМ ПРИНИМАТЬ УЧАСТИЕ В НАШЕМ Hiring Week?

ЗАЧЕМ ПРИНИМАТЬ УЧАСТИЕ В НАШЕМ Hiring Week?

WELCOME-БОНУС

Пройдите интервью и получите оффер с welcome-бонусом. Если вы примете оффер в течении 48 часов, вы получите welcome-бонус в размере одного оклада. Если вы примете оффер в течении 3-х дней, то получите welcome-бонус в размере 80% от ежемесячного оклада.

ЗАЧЕМ ПРИНИМАТЬ УЧАСТИЕ В НАШЕМ Hiring Week?

НОВАЯ РАБОТА ЗА 48 часов

Мы ценим ваше время, и эта одна из причин проведения мероприятия – не нужно долго ждать решения. После успешного прохождения необходимых интервью в течение 48 часов вам будет сделан оффер. Если вы примете оффер в течение суток, то получите welcome-бонус в размере еще одного оклада!

WELCOME-БОНУС

Пройдите интервью и получите оффер с welcome-бонусом. Если вы примете оффер в течении 48 часов, вы получите welcome-бонус в размере одного окладаЕсли вы примете оффер в течении 3-х дней, то получите welcome-бонус в размере 80% от ежемесячного оклада.

НОВАЯ РАБОТА ЗА 48 часов

Мы ценим ваше время, и эта одна из причин проведения мероприятия – не нужно долго ждать решения. После успешного прохождения необходимых интервью в течение 48 часов вам будет сделан оффер. Если вы примете оффер в течение суток, то получите welcome-бонус в размере еще одного оклада!

 
 

ЗАПОЛНИТЕ ЗАЯВКУ

Спасибо, ваша заявка принята к рассмотрению. Мы свяжемся с вами в ближайшее время.

Упс, что-то пошло не так. Пожалуйста, попробуйте еще раз. Приносим извинения за временные неудобства.

Перетащите сюда своё резюме или кликните, чтобы выбрать из папки (не более 10 Мбайт)

*Пожалуйста, заполните все обязательные поля