Ранее мы познакомились с основами логистической регрессии, поэтому теперь мы увидим, почему логистическая регрессия помогает с конкретным типом проблем, где выход является фактором, т. е. 1 или 0, True или False и т. д.

Мы знаем, что сигмовидная функция

и заговор это выглядит,

в логистической регрессии мы хотим, чтобы наш результат был в [0,1].

So,

Берем теперь производную функции g(z):

Тогда функция потерь может быть такой:

Функция стоимости для логистической регрессии будет

Поэтому мы используем градиентный спуск, чтобы минимизировать стоимость и получить лучшие параметры.