Открытые предложения |Автор на курс «Специалист по Data Science»

Автор на курс «Специалист по Data Science»

Стойте у истоков создания образовательного контента и меняйте жизни людей

Можно совмещать с основной работой (от 10 часов в неделю)

На связи команда из направления анализа данных Яндекс Практикума. Мы готовим курс «Специалист по Data Science» и ищем авторов, которые поделятся своей экспертизой.

Яндекс Практикум — сервис онлайн-образования, где реально освоить востребованную цифровую профессию и найти стабильную работу. А технологии и команда экспертов помогают довести дело до конца.

Что делает автор?
  • Создаёт материалы для новых курсов в команде с другими авторами, методистами, редакторами, иллюстраторами и продакт-менеджерами программы.
  • Пишет тексты уроков, в которых поддерживает интерес студентов к обучению
  • Улучшает существующий контент на основе обратной связи от студентов, экспертов сопровождения и редакторов.
  • Разрабатывает дополнительные материалы (тренажёр, чек-листы, тесты, памятки, квизы) и тестовые задания для проверки знаний.
  • Предлагает идеи, как улучшить усвоение материала.
  • Участвует в проектировании программы.
Что мы ожидаем от вас?

В рамках базовой программы «Специалист Data Science» мы разрабатываем уроки для следующих модулей:

  1. Основы машинного обучения. Линейные модели (Знакомство с МО. Первая модель — Линейная регрессия, Логистическая регрессия, Метод опорных векторов (SVM))
  2. Обучение моделей. Модели на основе деревьев и обучение без учителя (Решающее дерево, Random forest, Boosting and gradient boosting, Обучение без учителя)
  3. Внедрение, мониторинг, AB-тесты моделей (Внедрение и мониторинг моделей, Формулировка гипотез, Анализируем результаты А/В тестирования с помощью Python, Подготовка к собеседованиям)


А в рамках расширенной версии программы мы разрабатываем уроки для учебных спринтов:

  • Обработка больших данных, Трекинг экспериментов в ML flow, Введение в глубинное обучение. Нейронные сети для изображений, Нейронные сети для текстов, Рекомендательные системы.


Авторы должны глубоко понимать одну или несколько тем, которые мы включили в программу (достаточна экспертиза в конкретной теме/инструменте из списка). Для этого необходим опыт работы со следующими инструментами:

  1. Scikit-learn. Ожидаем, что ты активно используешь библиотеку для решения практических задач машинного обучения. Важно уверенно обучать и валидировать различные модели машинного обучения, выполнять предобработку данных, а также проводить отбор признаков и настройку гиперпараметров моделей.
  2. XGBoost/LightGBM/CatBoost. Ожидаем, что ты знаком с особенностями каждой библиотеки, умеешь эффективно настраивать гиперпараметры с помощью Optuna, а также проводить интерпретацию моделей с помощью feature importance, permutation importance и SHAP для решения реальных задач.
  3. Pandas и NumPy. Важно иметь опыт работы с табличными данными, уверенно использовать pandas для очистки и обработки данных, а также применять NumPy для векторизации вычислений.
  4. MLflow. Здорово, если ты имеешь опыт трекинга экспериментов, логирования параметров, метрик и моделей с помощью MLflow. Важно понимание того, как использовать этот инструмент для построения воспроизводимых экспериментов, а также понимание общей культуры проведения экспериментов в разработке моделей.
  5. PyTorch и Hugging Face. Для работы с DL ожидаем, что ты владеешь PyTorch, умеешь строить, обучать и настраивать архитектуры нейронных сетей (сверточные нейронные сети для изображений, рекуррентные сети и трансформеры для текстов). Также важно иметь опыт работы с Hugging Face для работы с современными NLP и CV моделями.
  6. Apache Spark и PySpark. Ожидаем опыт работы с PySpark для обработки и подготовки больших данных для задач машинного обучения. Важно понимание архитектуры систем обработки больших данных и Apache Spark.
  7. Airflow. Ожидаем, что ты умеешь создавать и автоматизировать процессы обработки данных с помощью DAG-ов в Apache Airflow. Важно, чтобы ты понимал, как реализовывать батч-инференс моделей через Airflow и имел представление о том, как использовать Airflow для построения систем мониторинга моделей.
  8. RecSys. Ожидаем, что у тебя есть опыт разработки рекомендательных систем, включая гибридные подходы, матричные факторизации и content-based модели. Будет здорово, если ты владеешь библиотеками LightFM и Implicit, а также понимаешь, как оценивать качество рекомендательных систем.


А также:

  • Техническое образование (преимущественно в области ML).
  • Опыт работы Data scientist или на смежных позициях от 3-х лет.
  • Непреодолимое желание делиться знаниями и опытом, рассказывать сложное доступно и понятно. Так, чтобы вас поняли люди без опыта в этой сфере.
  • Умение грамотно и интересно писать, а где уместно — шутить, придумывать аналогии и метафоры, чтобы объяснить.
  • Дружелюбие и умение работать с командой сообща.
  • Опыт преподавания, публичных выступлений или авторства экспертных статей — будет преимуществом.


  Что мы предлагаем?
  • Ежемесячное вознаграждение. Размер вознаграждения обсуждаем на собеседовании.
  • Удалённое сотрудничество. У нас нет офиса — мы все работаем из разных городов, стран и даже в путешествиях.
  • Возможность совмещать с другой работой. Мы предлагаем сотрудничество удалённо, от 10 часов в неделю. При этом нужно быть на связи в мессенджерах и иногда в Zoom.
  • Возможность экспериментировать и принимать самостоятельные решения. Мы доверяем вашему опыту и не тратим время и силы друг друга на микроменеджмент.
  • Осязаемые результаты деятельности. Главная метрика, по которой мы судим сами себя — это процент студентов, которые находят работу после окончания курса (сейчас — 69%).
  • Небольшую дружную команду, которая отвечает за создание и выпуск контента. Мы поддерживаем друг друга и любим шутить.

Мы ждём именно тебя!

Mon Mar 24 2025 23:47:17 GMT+0300 (Moscow Standard Time)