神经网络训练中的batch size是什么意思?
和sgd里的batch size是一回事嘛?
1个回答
本质上、原理上,神经网络的batch和SGD里的batch是一个意思。
batch size就是batch中样本的个数。
对于SGD,我们每次输入进部分样本训练模型,这个就是batch的概念。
同样的,对于神经网络,我们每次输入部分样本(也就是batch)进入网络,训练网络,这就是神经网络中的batch。(其实神经网络很多时候都是用SGD训练的,所以这个batch也就对应了SGD里的batch)
SofaSofa数据科学社区DS面试题库 DS面经