在这里插入图片描述
交叉熵损失函数,最小就是,如果分布完全一样那就是0,这个就是针对分类的专门函数
在这里插入图片描述
线性回归和逻辑回归的梯度更新公式是一模一样的
在这里插入图片描述
逻辑回归如果用最小二乘的方式求损失函数,梯度更新的时候会导致出现很多0
在这里插入图片描述梯度变化不明显,不容易迭代判断得到最优解
在这里插入图片描述
判别模型的效果是要比生成式的模型效果要好,生成式是假设服从某个分布,跟数据的相关性更弱一些。
在这里插入图片描述
生成式模型有自己的分布假设需要更少的数据,对数据的噪声不敏感些,把整个函数拆成两项,可以来自不同的来源,语音辨识,语言和声音信号的融合。
在这里插入图片描述
多分类同样可以假设服从高斯分布推到出来,让大的更大,小的更小。用多维度的坐标进行分类,不用1,2,3放在类别的远近出现干扰。
在这里插入图片描述
线性函数,针对不能线性可分的时候,不好处理
在这里插入图片描述
通过转换函数,变成线性可分。
在这里插入图片描述
通过多个逻辑回归串起来实现转换
在这里插入图片描述
多个线性函数串起来实现非线性数据的分类,就是所谓的神经元进入深度学习。

本质上深度学习只是做了自动特征提取的工作而已,让线性不可分的特征变得线性可分,讨论还是之前的套路。

https://aistudio.baidu.com/aistudio/education/group/info/1978

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐