2022 深度学习 & 计算机视觉 & 感知算法 面经整理 七(51 52 53 54 55 56 57 58 59 60 61)
文章目录51 Resnet和Transformer的模型结构ResnetTransformer52 CNN和RNN优缺点53 介绍LSTM54 讲下Self-Attention55 常见激活函数和特点56 Layer norm和Batch norm的区别57 卷积的本质58 概率的知识点59 Sigmoid 、MSELoss 及 CELoss 的来源60 讲一下目标检测 OneStage、 Two
文章目录
51 Resnet和Transformer的模型结构
Resnet





参见《你必须要知道CNN模型:ResNet》:
https://zhuanlan.zhihu.com/p/31852747
参见《详解残差网络》:
https://zhuanlan.zhihu.com/p/42706477
Transformer
七月NLP的面试题,详解了Transformer:
https://www.julyedu.com/questions/interview-detail?kp_id=30&cate=NLP&quesId=2912









参见《【NLP】Transformer模型原理详解》:
https://zhuanlan.zhihu.com/p/44121378
参见《图解Transformer(完整版)》:
https://blog.csdn.net/longxinchen_ml/article/details/86533005
52 CNN和RNN优缺点


参见《卷积神经网络CNN各个框架的优缺点以及一些其他的
》:
https://www.bilibili.com/read/cv8103622
参见《卷积神经网络CNN总结》:
https://www.cnblogs.com/skyfsm/p/6790245.html

53 介绍LSTM



参见《LSTM入门总结》:
https://zhuanlan.zhihu.com/p/38063427
参见《人人都能看懂的LSTM》:
https://zhuanlan.zhihu.com/p/32085405
参见《理解 LSTM 网络》:
https://www.jianshu.com/p/9dc9f41f0b29
54 讲下Self-Attention



参见《self-attention》:
https://blog.csdn.net/weixin_43758551/article/details/98220358
参见《transformer 模型(self-attention自注意力)》:
https://blog.csdn.net/weixin_40871455/article/details/86084560
55 常见激活函数和特点




56 Layer norm和Batch norm的区别


参见《Batch Norm和Layer Norm的区别》:
https://blog.csdn.net/huihui__huihui/article/details/118498291
57 卷积的本质

参见《关于卷积本质的理解》:
https://zhuanlan.zhihu.com/p/34258488
参见《卷积的本质》:
https://www.jianshu.com/p/4fe4278846af
58 概率的知识点

59 Sigmoid 、MSELoss 及 CELoss 的来源

参见《损失函数 | Mean-Squared Loss》:
https://zhuanlan.zhihu.com/p/35707643
参见《损失函数|交叉熵损失函数》
https://zhuanlan.zhihu.com/p/35709485
60 讲一下目标检测 OneStage、 TwoStage 以及 YOLOv1









参见《目标检测中One-stage的检测算法》:
https://blog.csdn.net/shentanyue/article/details/84860600
参见《深度学习: one-stage/two-stage/multi-stage 目标检测算法》:
https://blog.csdn.net/JNingWei/article/details/80039079
参见《这可能是最详细的目标检测YOLO_v1的解释》:
https://blog.csdn.net/u010712012/article/details/85116365
参见《从YOLOv1到YOLOv3,目标检测的进化之路》:
https://blog.csdn.net/guleileo/article/details/80581858
61 写一下 Softmax CrossEntropy 的反向传播推导过程




魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐



所有评论(0)