Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

fix typos (lecture06) #172

Open
wants to merge 1 commit into
base: master
Choose a base branch
from
Open
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
8 changes: 4 additions & 4 deletions 2021-fall/lecture-notes/lecture06-linclass.tex
Original file line number Diff line number Diff line change
Expand Up @@ -30,7 +30,7 @@

\section{Логистическая регрессия}
\subsection{Оценивание вероятностей}
Метод обучения, которые получается при использовании логистической функции потерь,
Метод обучения, который получается при использовании логистической функции потерь,
называется логистической регрессией.
Основным его свойством является тот факт, что он корректно оценивает вероятность
принадлежности объекта к каждому из классов.
Expand Down Expand Up @@ -81,7 +81,7 @@ \subsection{Оценивание вероятностей}
На семинаре будет показано, что этим свойством обладает, например, квадратичная функция потерь~$L(y, z) = (y - z)^2$,
если в ней для положительных объектов использовать истинную метку~$y = 1$, а для отрицательных брать~$y = 0$.

Примером функции потерь, которая не позволяет оценивать вероятности, является модуль отклонения~$L(y, x) = |y - z|$.
Примером функции потерь, которая не позволяет оценивать вероятности, является модуль отклонения~$L(y, z) = |y - z|$.
Можно показать, что с точки зрения данной функции оптимальным ответом всегда будет либо ноль, либо единица.

Это требование можно воспринимать более просто.
Expand Down Expand Up @@ -197,7 +197,7 @@ \subsection{Логистическая регрессия}
Как при этом можно интерпретировать данное скалярное произведение?
Чтобы ответить на этот вопрос, преобразуем уравнение
\[
p(y = 1 \cond x)
p(y = +1 \cond x)
=
\frac{1}{1 + \exp(-\langle w, x \rangle)}.
\]
Expand Down Expand Up @@ -312,7 +312,7 @@ \subsection{Разделимый случай}
которая штрафует большую норму весов~--- а чем больше норма весов,
тем меньше ширина разделяющей полосы.

Итак, требуется построить классификатор, идеально разделяющий обучающую выборку,
Итак, требуется построить классификатор, идеально разделяющий обучающую выборку
и при этом имеющий максимальный отступ.
Запишем соответствующую оптимизационную задачу,
которая и будет определять метод опорных векторов для линейно разделимой выборки~(hard margin support vector machine):
Expand Down