对于隐藏层的激活函数,必须为非线性函数,因为线性函数的组合本身就是线性函数,所以除非引入非线性,否则无法计算更复杂的函数,即使网络层数再多也不行。
激活函数的种类:relu激活函数,sigmoid激活函数,tanh激活函数等。
对于隐藏层一般使用relu激活函数,对于输出层如果用于分类则采用sigmoid激活函数,用于回归则采用线性激活函数。

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐