Машинное обучение. Многомерная линейная регрессия. А.Ю. Фонарев, Школа анализа данных, Яндекс.

2020 ж. 1 Мам.
11 400 Рет қаралды

Классический способ обучения линейной модели регрессии - это метод наименьших квадратов. Сингулярное разложение матрицы признаковых описаний объектов позволяет изящно записать классическое решение МНК. Мультиколлинеарность или скрытые линейные зависимости между признаками приводит к неустойчивости решения и переобучению. Гребневая регрессия с помощью L2-регуляризации делает решение немного смещённым, но намного более устойчивым. Сингулярное разложение и в этом случае позволяет записать решение. Более того, оно позволяет эффективно оптимизировать параметр регуляризации. Метод LASSO или L1-регуляризация решает проблему мультиколлинеарности по-другому - отбрасывая лишние признаки. Третье решение - линейный переход от большого числа исходных признаков к малому числу новых признаков, но так, чтобы исходные по новым можно было восстановить как можно точнее. Это приводит к методу главных компонент, который оказывается обобщением всё того же сингулярного разложения.

Пікірлер
  • Исправьте ФИО лектора, К. В. Воронцов.

    @user-fp8nm8oy6i@user-fp8nm8oy6i4 жыл бұрын
  • Как бы там ни было, замечательный курс)

    @PancakeUnderPressure@PancakeUnderPressure4 жыл бұрын
  • начал смотреть

    @user-kd3ow4rr7z@user-kd3ow4rr7z7 ай бұрын
  • Подскажите, как определяется ортогональная прямоугольная матрица? На 8 слайде вводится матрица V (l*n), в большинстве источников ортогональную матрицу определяют из квадратной

    @user-rb8pn3mf9i@user-rb8pn3mf9i3 жыл бұрын
    • Она отличается от обычной тем, что достаточно выполнения только одного условия: A * A^T = E или A^T * A = E, в зависимости от того, чего больше столбцов или строк.

      @alexeyzabashta@alexeyzabashta2 жыл бұрын
KZhead