ML_Logistic_Regression

  1. Logistic Regression
    1. 什么是分类问题
    2. 假设函数的选择
    3. 代价函数
    4. 多类别分类

Logistic Regression

什么是分类问题

  • 预测的变量是离散的值,例如:正例1,反例0
  • 算法输出的边界在0~1之间

假设函数的选择

  • 常用的Sigmoid Function函数: ​​。

image-20240301153534631

  • 判断边界,根据不同的模型拟合不同的边界

    • 边界为线性函数image-20240301154638203

    • 边界为多项式函数

      image-20240301154705931

  • Sigmoid + 合适的边界函数 = 假设函数

image-20240301154850436

代价函数

  • 逻辑回归的拟合问题:由于我们选择的假设函数是Sigmoid函数,将其带入到线性回归的代价函数中,我们发现:我们得到的代价函数是一个具有多个局部最小值的函数,即非凸函数,这将影响到梯度下降法寻找全局最小值。image-20240301155255355

  • 代价函数的选择:image-20240301155414129

    • 当实际值为1:若的值也为1,那么误差为0;反之,若距离1越远,误差越大
    • 当实际值为0:若为0,那么误差也为0;反之,若距离0越远,那么输出的误差也就越大。
  • 代价函数的化简:

    将构建的 简化如下:

    带入代价函数得到: 即:

  • 代价函数为凸函数的推导:

    可以看到,经过一连串的求导之后,我们得到了与线性回归同样的结果,但这并不意味着两者之间存在必然的关系。此外,除了梯度下降之外,还有一些优化的算法,这些算法比梯度下降更为高效:共轭梯度Conjugate Gradient),局部优化法(Broyden fletcher goldfarb shann,BFGS)和有限内存局部优化法(LBFGS) (浅浅的埋个坑)

多类别分类


转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。可以在下面评论区评论,也可以邮件至 2542608082@qq.com