Логистическая регрессия чаще всего задаётся как y^(x)=σ(wx+b)y^(x)=σ(wx+b)\hat{y}(x) = \sigma(w x + b), где x∈Rdx∈Rdx \in \mathbb{R}^d - вектор признаков объекта, w∈Rdw∈Rdw \in \mathbb{R}^d - вектор весов признаков, wx∈Rwx∈Rwx \in \mathbb{R} - скалярное произведение этих двух векторов, а b∈Rb∈Rb \in \mathbb{R} - параметр сдвига (bias, intercept). w и b вместе составляют набор параметров модели.
В некоторых материалах можно также встретить формулу y^2(x)=σ(wx)y^2(x)=σ(wx)\hat{y}_2(x) = \sigma(w x). При этом подразумевается, что b включён в w за счёт того, что x содержит один дополнительный признак, который всегда равен 1. Рассмотрим для примера x=(x1,x2)x=(x1,x2)x = (x_1, x_2) и параметры модели y^(x)y^(x)\hat{y}(x): w=(w1,w2)w=(w1,w2)w = (w_1, w_2) и bbb. Тогда, чтобы формулировка y^2(x)y^2(x)\hat{y}_2(x) работала так же, как y^(x)y^(x)\hat{y}(x), нужно добавить фиктивный признак x′=(x1,x2,1)x′=(x1,x2,1)x' = (x_1, x_2, 1), а также добавить b в w: w′=(w1,w2,b)w′=(w1,w2,b)w' = (w_1, w_2, b). Тогда y^(x;w,b)=y^2(x′;w′)y^(x;w,b)=y^2(x′;w′)\hat{y}(x; w,b) = \hat{y}_2(x'; w').
А в другом шаге мы предлагаем Вам поразмышлять над тем, зачем нужен b.

К сожалению, у нас пока нет статистики ответов на данный вопрос, но мы работаем над этим.