CS231n 卷积神经网络视觉识别⚓︎
这些笔记是与斯坦福大学计算机科学课程CS231n:卷积神经网络视觉识别相关的。 如有问题/关注/漏洞报告,请直接向git repo提交pull request。
2023年春季作业⚓︎
作业#1: 图像分类,kNN,SVM,Softmax,全连接神经网络Fully Connected Neural Network
作业#2: 全连接和卷积网络,批量归一化,dropout,Pytorch和网络可视化
作业#3:使用RNN和Transformer进行图像字幕Image Captioning生成,网络可视化,生成对抗网络Generative Adversarial Networks,自监督对比学习 Self-Supervised Contrastive Learning
模块0:准备⚓︎
软件设置
Python / Numpy教程(使用Jupyter和Colab)
模块1:神经网络⚓︎
图像分类:数据驱动方法,k-近邻k-Nearest Neighbor,训练/验证/测试分割
L1/L2距离,超参数搜索hyperparameter search,交叉验证cross-validation
线性分类:支持向量机SVM,Softmax
参数化方法,偏差bias技巧,铰链损失hinge loss,交叉熵损失cross-entropy loss,L2正则化regularization,网络演示
优化:随机梯度下降Stochastic Gradient Descent
优化空间optimize landscapes,局部搜索,学习率,分析/数值梯度
反向传播Backpropagation,直觉Intuitions
链式法则解释chain rule interpretation,实值电路real-valued circuits,梯度流模式patterns in gradient flow
神经网络第1部分:设置架构architecture
生物神经元biological neuron模型,激活函数,神经网络架构,表示能力representational power
神经网络第2部分:设置数据和损失
预处理,权重初始化,批量归一化batch normalization,正则化regularization (L2/dropout),损失函数
神经网络第3部分:学习和评估
梯度检查,合理性sanity检查,看护babysitting学习过程,动量momentum(+ nesterov),二阶second-order方法,Adagrad / RMSprop,超参数hyperparameter优化,模型集成ensembles
将其组合起来:最小神经网络案例研究
最小2D玩具数据示例
模块2:卷积神经网络⚓︎
卷积神经网络:架构,卷积/池化Pooling层
层,空间排列spatial arrangement,层模式,层大小模式layer sizing patterns,AlexNet / ZFNet / VGGNet案例研究,计算考虑因素computational considerations
卷积神经网络的理解和可视化
tSNE嵌入,deconvnets,数据梯度,fooling ConvNets,人类比较human comparisons
迁移学习Transfer Learning和微调Fine-tuning卷积神经网络
学生投稿⚓︎
将课程项目转化为出版物
循环神经网络Recurrent Neural Networks
创建日期: September 16, 2023