贪心学院计算机视觉CV训练营


贪心学院计算机视觉CV训练营

任务 Notes 其他
任务1:机器学习、深度学习简介 Note1
任务2:深度学习的发展历史 Note2
任务3:现代深度学习的典型例子 Note3
任务4:深度学习在计算机视觉中的应用 Note4
任务5:深度学习的总结 Note5
任务6:开发环境的配置 Note6
任务7:GPU驱动程序安装 Note7
任务8:CUDA的安装 Note8
任务9:cuDNN的安装 Note9
任务10:问答环节 Note10
任务11:环境安装 Note11
任务12:二元分类问题 Note12
任务13:逻辑函数 Note13
任务14:指数与对数、逻辑回归 Note14
任务15:示例 Note15
任务16:损失函数 Note16
任务17:损失函数推演 Note17
任务18:梯度下降法 Note18
任务19:应用 Note19
任务20:直播答疑 Note20
任务21:自动驾驶方向盘预测论文分析 Note21
任务22:使用PyCharm Keras建立深度网络模型 Note22
任务23:数据预处理 数据增强 Note23
任务24:建立BatchGenerator高效读取数据 Note24
任务25:训练网络 保存训练的中间过程数据 Note25
任务26:查看网络训练过程
判断网络是否过拟合 欠拟合
Note26
任务27:神经网络分类问题的经典数据(集鸢尾花数据集)介绍,
神经网络Python库Keras的介绍
Note27
任务28:使用Pandas读取鸢尾花数据集,
使用LabelEncoder对类别标签进行编码
Note28
任务29:使用Keras创建一个用于鸢尾花分类识别的神经网络 Note29
任务30:训练用于鸢尾花分类的神经网络,
解读训练输出的日志,了解如何评价神经网络的性能
Note30
任务31:神经网络数学原理(1):
神经网络的结点,权值,激活函数
Note31
任务32:神经网络数学原理(2):
神经网络的前馈(Feed Forward)算法
Note32
任务33:神经网络数学原理(3):
神经网络的前馈(Feed Forward)算法续,
Softmax层的数值问题
Note33
任务34:神经网络数学原理(4):
神经网络BP(误差反向传播)算法
Note34
任务35:神经网络数学原理(5):
神经网络BP(误差反向传递)算法续
Note35
任务36:神经网络数学原理(6):
手动演算神经网络BP算法(误差向后传递)
Note36
任务37:神经网络数学原理(7):
手动演算神经网络BP算法(误差向后传递)续
Note37
任务38:Neural.Network.Loss-直播01 Note38
任务39:Neural.Network.Loss-直播02 Note39
任务40:Neural.Network.Loss-直播03 Note40
任务41:梯度消亡 Note41
任务42:梯度消亡问题分析 Note42
任务43:梯度消亡解决方案 Note43
任务44:过拟合 Note44
任务45:DropOut训练 Note45
任务46:正则化 Note46
任务47:最大范数约束 神经元的初始化 Note47
任务48:作业讲解与答疑-01 Note48
任务49:作业讲解与答疑-02 Note49
任务50:为什么需要递归神经网络? Note50
任务51:递归神经网络介绍 Note51
任务52:语言模型 Note52
任务53:RNN的深度 Note53
任务54:梯度爆炸和梯度消失 Note54
任务55:Gradient Clipping Note55
任务56:LSTM的介绍 Note56
任务57:LSTM的应用 Note57
任务58:Bi-Directional LTSM Note58
任务59:Gated Recurrent Unit Note59
任务60:机器翻译 Note60
任务61:Multimodal Learning Note61
任务62:Seq2Seq模型 Note62
任务63:回顾RNN与LSTM Note63
任务64:Attention for Image Captioning Note64
任务65:Attention for Machine Translation Note65
任务66:Self-Attention Note66
任务67:Attention总结 Note67
任务68:neural network optimizer直播-01 Note68
任务69:neural network optimizer直播-02 Note69
任务70:neural network optimizer直播-03 Note70
任务71:项目介绍 Note71
任务72:看图说话任务一-01 Note72
任务73:看图说话任务一-02 Note73
任务74:看图说话任务一-03 Note74
任务75:任务介绍 Note75
任务76:如何实现 load_img_as_np_array 这个函数 Note76
任务77:如何实现“load_vgg16_model”函数 Note77
任务78:如何实现“extract_features”函数 Note78
任务79:创建Tokenizer 01 Note79
任务80:创建Tokenizer02 Note80
任务81:产生模型需要的输入数据01 Note81
任务82:产生模型需要的输入数据02 Note82
任务83:任务的概述 Note83
任务84:Input Embedding和Dropout层介绍 Note84
任务85:LSTM Add层的介绍 Note85
任务86:如何训练模型 Note86
任务87:如何使用深度神经网络模型做预测
产生标题 完成generate_caption函数01
Note87
任务88:如何使用深度神经网络模型做预测 产生标题 完成generate_caption函数02 Note88
任务89:如何调用generate_caption函数 Note89
任务90:如何评价标题生成模型的性能 Note90
任务91:读取和显示数字图像 Note91
任务92:数字图像大小缩放 Note92
任务93:数字图像直方图均衡 Note93
任务94:图像去噪声 Note94
任务95:图像边缘检测 Note95
任务96:图像关键点检测 Note96
任务97:道路行车道检测简介 Note97
任务98:Canny边缘检测 Note98
任务99:霍夫变换用于直线检测 Note99
任务100:道路行车道检测代码讲解 Note100
任务101:在图像和视频上面演示道路行车道检测 Note101
任务102:项目介绍 Note102
任务103:交通指示牌识别的简介 Note103
任务104:交通指示牌识别课程的编程任务 Note104
任务105:如何分析数据 (util.py 的详细介绍) Note105
任务106:如何预处理图像数据、建立神经网络模型、
训练网络模型 (train.py 的详细介绍)01
Note106
任务107:如何预处理图像数据、建立神经网络模型、
训练网络模型 (train.py 的详细介绍)02
Note107
任务108:色彩空间转换 Note108
任务109:直方图均衡 Note109
任务110:图像标准化 Note110
任务111:使用ImageDataGenerator做图像增强 Note111
任务112:作业上传的要求 Note112
任务113:介绍经典交通指示牌卷积神经网络模型 Note113
任务114:代码实现经典交通指示牌识别卷积神经网络模型 Note114
任务115:卷积神经网络的数学原理01 Note115
任务116:卷积神经网络的数学原理02 Note116
任务117:深度学习调参-直播-01 Note117
任务118:深度学习调参-直播-02 Note118
任务119:深度学习调参-直播-03 Note119
任务120:卷积层的启发 Note120
任务121:卷积层的定量分析 Note121
任务122:单通道输入 单通道输出的卷积层的实例 Note122
任务123:多通道输入 多通道输出的卷积层的实例 Note123
任务124:池化层的原理 定量分析 Note124
任务125:卷积神经网络和全连接神经网络的比较 Note125
任务126:卷积神经网络在围棋 语言识别和自然语言处理中的应用 Note126
任务127:基于深度学习的图像分类历史回顾 Note127
任务128:AlexNet的结构分析 Note128
任务129:ZFNet的结构分析 Note129
任务130:VGG的结构分析 Note130
任务131:GoogleNet Inception的结构分析 Note131
任务132:Inception V3的结构分析 Note132
任务133:ResNet的结构分析 Note133
任务134:ResNet的代码实现 Note134
任务135:基于内容的图像搜索理论基础 Note135
任务136:基于去噪自动编码器的图像搜索代码实现 Note136
任务137:使用卷积神经网络进行语义图像嵌入
在目标检测 自动驾驶 图像超分辨率重构 工业探伤等等领域的应用
Note137
任务138:项目1-看图说话(助教)讲解和答疑-01 Note138
任务139:项目1-看图说话(助教)讲解和答疑-02 Note139
任务140:项目介绍www.rejoiceblog.com Note140
任务141:自动驾驶方向盘转动方向预测的背景知识 Note141
任务142:如何收集训练数据 Note142
任务143:理解分析训练数据 Note143
任务144:自动驾驶方向盘转动方向预测的网络结构和网络训练代码讲解 Note144
任务145:提高网络性能的思路 图像处理、数据增强、网络结构优化 Note145
任务146:探索数据01 Note146
任务147:探索数据02 Note147
任务148:图像增强01 Note148
任务149:图像增强02 Note149
任务150:解决数据不平衡的问题 DataGenerator的应用 Note150
任务151:网络结构实例 Note151
任务152: 图像增强部分的代码讲解 Note152
任务153:DataGenerator部分的代码讲解 Note153
任务154:网络结构实现部分的代码讲解 Note154
任务155:方向盘转动方向预测网络模型的性能评估方法 Note155
任务156:使用模拟器定性的判断网络性能的方法以及代码讲解 Note156
任务157:模拟器自动驾驶的展示 Note157
任务158:通过损失函数的变化判断网络性能、识别和解决过拟合和欠拟合的问题 Note158
任务159:如何安装Python连接模拟器的Python 库 Note159
任务160:windows 下面使用自动驾驶模拟器的教程 Note160
任务161:mac 下面使用自动驾驶模拟器的教程 Note161
任务162:目标识别综述 Note162
任务163:基于HOG(梯度直方图)的目标识别 Note163
任务164:Non-Max Suppression IoU 和 Hard Negative Mining Note164
任务165:R-CNN的工作原理 Note165
任务166:R-CNN中的边界框(Bounding Box)预测原理 Note166
任务167:R-CNN的不足之处 Note167
任务168:Fast R-CNN详解 Note168
任务169:Faster R-CNN Region Proposal Network Note169
任务170:R-CNN Fast R-CNN Faster R-CNN的总结 Note170
任务171:目标识别 R-CNN家族的回顾 Note171
任务172:SSD的简介 SSD与R-CNN的比较 Note172
任务173:SSD的网络结构(1) Note173
任务174:如何使用卷积作为最后的预测层 Note174
任务175:SSD的训练过程 Note175
任务176:SSD的实验结果分析 Note176
任务177:VGG16到SSD网络的演化 L2Normalization层的实现 Note177
任务178:SSD各个技术对失败率的影响 Atrous卷积层的原理 Note178
任务179:使用卷积作为最后的预测层详解 Note179
任务180:SSD定位损失函数详解 Note180
任务181:SSD中Anchor尺寸 宽高比 中心位置的确定 Note181
任务182:SSD中分类损失函数详解 Note182
任务183:Non-Max Suppression的原理 Note183
任务184:SSD和YOLO的比较 SSD的总结 Note184
任务185:图像分割简介 Note185
任务186:基于深度学习的图像分割U-Net的原理 Note186
任务187:Transposed Convolution原理与运用 Note187
任务188:U-Net的代码讲解 Note188
任务189:图像生成的原理 Note189
任务190:使用深度学习自动图像生成手写数字的代码讲解 Note190
任务191:图像风格转移的原理 Note191
任务192:使用深度学习实现图像风格转移的代码讲解 Note192
任务193:SSD的原理回顾 Note193
任务194:编程项目的训练数据介绍 Note194
任务195:对SSD模型对产生Anchor有影响的参数讲解 Note195
任务196:对候选框精选处理有影响的参数讲解 Note196
任务197:对输入模型参数的合法性检测和转换 Note197
任务198:具有7层的SSD的网络结构讲解 Note198
任务199:编译模型 使用模型做预测 Note199
任务200:SSD解码的实现 Note200
任务201:帮助函数IoU 坐标转换 SSD损失函数
Non-Max-Suppression的实现
Note201
任务202:二值化神经网络的简介 Note202
任务203:二值化网络的前向后向传播 梯度计算原理www.rejoiceblog.com Note203
任务204:二值化网络的训练算法 Note204
任务205:二值化网络的实验结果 Note205
任务206:二值化全连接网络的代码讲解 Note206
任务207:DropoutNoScale层的实现 Note207
任务208:BinaryDense层的实现 Note208
任务209:二值化卷积神经网络的代码讲解 Note209
任务210:项目作业要求 Note210
任务211:神经网络在实际应用中面临的挑战 轻量级深度神经网络的必要性 Note211
任务212:MobileNet Depthwise Seperable Convolution的原理计算量分析 Note212
任务213:ShuffleNet Group Convolution Channel Shuffle的原理 Note213
任务214:EffNet Spatial Seperable Convolution的原理计算量分析和实验效果 Note214
任务215:lightweight-network答疑时间 Note215
任务216:回顾EffNet的原理 Note216
任务217:EffNet的代码讲解 Note217
任务218:One-Shot Learning 的意义和工作原理 Note218
任务219:用于One-Shot Learning 的Siamese 深度神经网络的介绍 Note219
任务220:Siamese 深度神经网络的实验和结果分析 Note220
任务221:Transposed Convolution 的应用 算法回顾 以及使用矩阵乘法实现 Note221
任务222:Transposed Convolution 的梯度推导 Note222
任务223:将卷积核转换为Toeplitz Matrix用于矩阵乘法实现Transposed Note223
任务224:同学对课程的效果反馈调查 Note224
任务225:使用 Siamese 网络做门禁卡系统的入门介绍 数据集的介绍 Note225
任务226:PyTorch 基础教程 Note226
任务227:Siamese One-Shot learning 知识回顾 Note227
任务228:使用 PyTorch torchvision 库高效读取数据 Note228
任务229:使用 PyTorch 定义 Siamese 网络结构 Note229
任务230:使用 PyTorch 写训练网络的代码 Note230
任务231:使用 PyTorch 写测试网络的代码 Note231