From 0e378b379aaa740755c7ea910937c70c693c0ee0 Mon Sep 17 00:00:00 2001 From: Nina Chelysheva Date: Sun, 6 Nov 2022 19:30:30 +0300 Subject: [PATCH] fix typos --- 2021-fall/lecture-notes/lecture06-linclass.tex | 8 ++++---- 1 file changed, 4 insertions(+), 4 deletions(-) diff --git a/2021-fall/lecture-notes/lecture06-linclass.tex b/2021-fall/lecture-notes/lecture06-linclass.tex index d872c297..5b7297c1 100644 --- a/2021-fall/lecture-notes/lecture06-linclass.tex +++ b/2021-fall/lecture-notes/lecture06-linclass.tex @@ -30,7 +30,7 @@ \section{Логистическая регрессия} \subsection{Оценивание вероятностей} -Метод обучения, которые получается при использовании логистической функции потерь, +Метод обучения, который получается при использовании логистической функции потерь, называется логистической регрессией. Основным его свойством является тот факт, что он корректно оценивает вероятность принадлежности объекта к каждому из классов. @@ -81,7 +81,7 @@ \subsection{Оценивание вероятностей} На семинаре будет показано, что этим свойством обладает, например, квадратичная функция потерь~$L(y, z) = (y - z)^2$, если в ней для положительных объектов использовать истинную метку~$y = 1$, а для отрицательных брать~$y = 0$. -Примером функции потерь, которая не позволяет оценивать вероятности, является модуль отклонения~$L(y, x) = |y - z|$. +Примером функции потерь, которая не позволяет оценивать вероятности, является модуль отклонения~$L(y, z) = |y - z|$. Можно показать, что с точки зрения данной функции оптимальным ответом всегда будет либо ноль, либо единица. Это требование можно воспринимать более просто. @@ -197,7 +197,7 @@ \subsection{Логистическая регрессия} Как при этом можно интерпретировать данное скалярное произведение? Чтобы ответить на этот вопрос, преобразуем уравнение \[ - p(y = 1 \cond x) + p(y = +1 \cond x) = \frac{1}{1 + \exp(-\langle w, x \rangle)}. \] @@ -312,7 +312,7 @@ \subsection{Разделимый случай} которая штрафует большую норму весов~--- а чем больше норма весов, тем меньше ширина разделяющей полосы. -Итак, требуется построить классификатор, идеально разделяющий обучающую выборку, +Итак, требуется построить классификатор, идеально разделяющий обучающую выборку и при этом имеющий максимальный отступ. Запишем соответствующую оптимизационную задачу, которая и будет определять метод опорных векторов для линейно разделимой выборки~(hard margin support vector machine):