Loading...
Data Augmentation 这个词其实很容易误导人,因为 Augmentation 是增广的意思。数据增广,自然而然就会让人理解为:“增加了新的数据”。然而在实现的过程中,不一定是这样。 我们会给定一些随机化的参数,在每个 epoch 内生成随机增广后的图片。 比方说,每个 epoch 都按照一定的 random rule 来 crop 图片、调整色调,便是图像增广。 PyTorch...
论文链接:https://arxiv.org/abs/1506.02640 Abstract 以前都是用 Classifiers 来做 detection 现在:we frame object detection as a regression problem to spatially separated bounding boxes and associated class probab...
本节主要为以下内容的笔记:https://zh-v2.d2l.ai/chapter_multilayer-perceptrons/environment.html 训练到底在做什么? 训练其实是在最小化通过数据集得到的经验风险: 也就能得到权重 $\beta$.
Preface 这块内容比较搞脑子,这里举一个较为简单的参数复用的例子来说明。基础内容请看: https://zh-v2.d2l.ai/chapter_multilayer-perceptrons/backprop.html 回顾偏导数的链式法则 对于 所以我们使用偏导的链式法则救不会出错。 参数复用的好处 共享参数通常可以节省内存,并在以下方面具有特定的好处: 对于图像识别中的CNN...
Preface Define Network Custom Module Custom Module with Params Implement Sequential Custom Forward Function Access Parameter Access All Params Nested Network Params Parameter Initialization Share ...
为什么要正则化? 在探讨这个问题之前,我们需要先引入欠拟合和过拟合的概念。 左侧:欠拟合,high bias, $error_{train} \gg error_{dev}$ 右侧:过拟合,high variance, $error_{train} \rightarrow 0\%$ 在过拟合的时候我们需要引入正则化,来避免过拟合。 这里介绍两种正则化方式: 权重衰减 (weight ...