반응형
딥러닝에는 다양한 하이퍼파라미터가 존재한다. 이때, Wandb의 Sweep을 사용하지 않고, 학습하고 싶은 경우에는 shell 파일을 통해 로그를 저장하면서 학습할 수 있다.
아래와 같이 learning rate, batch size, sequence length 등을 지정하고, 모델을 돌리게 된다면, 각 인자를 변환하면서 모델이 백그라운드로 실행되게 된다.
for lr in 0.001 0.0001 0.00001
do
for batch in 8 16 32 64
do
for len in 64 128 256 512
do
nohup python3 train.py --lr ${lr} --batch_size ${batch} --max_length ${len} &> logs/logs-${lr}-${batch}-${len}.txt
done
done
done
'Python' 카테고리의 다른 글
[Python] 패키지 버전 확인하기 with code (0) | 2023.12.27 |
---|---|
[Wandb] Wandb 사용법 + Sweep with Pytorch (1) | 2023.12.21 |
[Python] UnicodeDecodeError: 'utf-8' codec can't decode byte 0x80 in position 0: invalid start byte (0) | 2023.07.03 |
[Pandas] Pandas에서 tqdm 사용하기 (0) | 2022.07.06 |
numpy array 구조를 image로 저장하기 (0) | 2022.06.01 |