배치 사이즈란
딥러닝에서 학습 시에 얼마만큼의 양을 학습후 가중치를 업데이트할지 지정하는 수이다.
예를 들어 문제를 풀때
100개의 문제를
10개의 문제씩 풀고 채점을 한다고 하면
10이 배치사이즈가 되는 것이다.
그러면 100개의 문제를 푸는데 10번의 풀기, 채점이 반복되는데
이 10번의 진행으로 100개의 문제를 모두 푸는 것이 한번의 에폭(Epoch)이 된다.
model.fit(train_set, epochs=10, batch_size=20)
위의 fit 함수에서 데이터셋의 크기가 200이라면
batch_size=20이므로 데이터셋을 20개씩 쪼갠다는 의미이고
이는 200/20=10번의 가중치 업데이트를 한다는 의미이다.
10번의 업데이트를 하면 1에폭이 실행되는 것이고
위의 코드에서는 이를 10번 반복한다는 의미이다.
배치 사이즈는 학습속도의 증진을 가져올 수 있지만
일반화 성능의 감소가 나타날 수 있다
'AI > 딥러닝' 카테고리의 다른 글
MSE와 MAE (0) | 2024.12.23 |
---|---|
MLOps (0) | 2024.12.15 |
원-핫 인코딩(One-Hot Encoding) (0) | 2024.10.16 |