跳转至

CS231n 卷积神经网络视觉识别⚓︎

课程地址

这些笔记是与斯坦福大学计算机科学课程CS231n:卷积神经网络视觉识别相关的。 如有问题/关注/漏洞报告,请直接向git repo提交pull request。


2023年春季作业⚓︎

作业#1: 图像分类,kNN,SVM,Softmax,全连接神经网络Fully Connected Neural Network

作业#2: 全连接和卷积网络,批量归一化,dropout,Pytorch和网络可视化

作业#3:使用RNN和Transformer进行图像字幕Image Captioning生成,网络可视化,生成对抗网络Generative Adversarial Networks,自监督对比学习 Self-Supervised Contrastive Learning

模块0:准备⚓︎

软件设置

Python / Numpy教程(使用Jupyter和Colab)

模块1:神经网络⚓︎

图像分类:数据驱动方法,k-近邻k-Nearest Neighbor,训练/验证/测试分割

L1/L2距离,超参数搜索hyperparameter search,交叉验证cross-validation

线性分类:支持向量机SVM,Softmax

参数化方法,偏差bias技巧,铰链损失hinge loss,交叉熵损失cross-entropy loss,L2正则化regularization,网络演示

优化:随机梯度下降Stochastic Gradient Descent

优化空间optimize landscapes,局部搜索,学习率,分析/数值梯度

反向传播Backpropagation,直觉Intuitions

链式法则解释chain rule interpretation,实值电路real-valued circuits,梯度流模式patterns in gradient flow

神经网络第1部分:设置架构architecture

生物神经元biological neuron模型,激活函数,神经网络架构,表示能力representational power

神经网络第2部分:设置数据和损失

预处理,权重初始化,批量归一化batch normalization,正则化regularization (L2/dropout),损失函数

神经网络第3部分:学习和评估

梯度检查,合理性sanity检查,看护babysitting学习过程,动量momentum(+ nesterov),二阶second-order方法,Adagrad / RMSprop,超参数hyperparameter优化,模型集成ensembles

将其组合起来:最小神经网络案例研究

最小2D玩具数据示例

模块2:卷积神经网络⚓︎

卷积神经网络:架构,卷积/池化Pooling层

层,空间排列spatial arrangement,层模式,层大小模式layer sizing patterns,AlexNet / ZFNet / VGGNet案例研究,计算考虑因素computational considerations

卷积神经网络的理解和可视化

tSNE嵌入,deconvnets,数据梯度,fooling ConvNets,人类比较human comparisons

迁移学习Transfer Learning和微调Fine-tuning卷积神经网络

学生投稿⚓︎

将课程项目转化为出版物

循环神经网络Recurrent Neural Networks

  cs231n
最后更新: September 16, 2023
创建日期: September 16, 2023