51 Resnet和Transformer的模型结构

Resnet

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

参见《你必须要知道CNN模型:ResNet》:
https://zhuanlan.zhihu.com/p/31852747

参见《详解残差网络》:
https://zhuanlan.zhihu.com/p/42706477

Transformer

七月NLP的面试题,详解了Transformer:
https://www.julyedu.com/questions/interview-detail?kp_id=30&cate=NLP&quesId=2912
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

参见《【NLP】Transformer模型原理详解》:
https://zhuanlan.zhihu.com/p/44121378

参见《图解Transformer(完整版)》:
https://blog.csdn.net/longxinchen_ml/article/details/86533005

52 CNN和RNN优缺点

在这里插入图片描述
在这里插入图片描述

参见《卷积神经网络CNN各个框架的优缺点以及一些其他的
》:
https://www.bilibili.com/read/cv8103622

参见《卷积神经网络CNN总结》:
https://www.cnblogs.com/skyfsm/p/6790245.html
在这里插入图片描述
在这里插入图片描述

53 介绍LSTM

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
参见《LSTM入门总结》:
https://zhuanlan.zhihu.com/p/38063427

参见《人人都能看懂的LSTM》:
https://zhuanlan.zhihu.com/p/32085405

参见《理解 LSTM 网络》:
https://www.jianshu.com/p/9dc9f41f0b29

54 讲下Self-Attention

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
参见《self-attention》:
https://blog.csdn.net/weixin_43758551/article/details/98220358

参见《transformer 模型(self-attention自注意力)》:
https://blog.csdn.net/weixin_40871455/article/details/86084560

55 常见激活函数和特点

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

56 Layer norm和Batch norm的区别

在这里插入图片描述
在这里插入图片描述

参见《Batch Norm和Layer Norm的区别》:
https://blog.csdn.net/huihui__huihui/article/details/118498291

57 卷积的本质

在这里插入图片描述
参见《关于卷积本质的理解》:
https://zhuanlan.zhihu.com/p/34258488

参见《卷积的本质》:
https://www.jianshu.com/p/4fe4278846af

58 概率的知识点

在这里插入图片描述

59 Sigmoid 、MSELoss 及 CELoss 的来源

在这里插入图片描述
参见《损失函数 | Mean-Squared Loss》:
https://zhuanlan.zhihu.com/p/35707643

参见《损失函数|交叉熵损失函数》
https://zhuanlan.zhihu.com/p/35709485

60 讲一下目标检测 OneStage、 TwoStage 以及 YOLOv1

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
参见《目标检测中One-stage的检测算法》:
https://blog.csdn.net/shentanyue/article/details/84860600

参见《深度学习: one-stage/two-stage/multi-stage 目标检测算法》:
https://blog.csdn.net/JNingWei/article/details/80039079

参见《这可能是最详细的目标检测YOLO_v1的解释》:
https://blog.csdn.net/u010712012/article/details/85116365

参见《从YOLOv1到YOLOv3,目标检测的进化之路》:
https://blog.csdn.net/guleileo/article/details/80581858

61 写一下 Softmax CrossEntropy 的反向传播推导过程

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐