반응형
딥러닝에는 다양한 하이퍼파라미터가 존재한다. 이때, Wandb의 Sweep을 사용하지 않고, 학습하고 싶은 경우에는 shell 파일을 통해 로그를 저장하면서 학습할 수 있다.
아래와 같이 learning rate, batch size, sequence length 등을 지정하고, 모델을 돌리게 된다면, 각 인자를 변환하면서 모델이 백그라운드로 실행되게 된다.
for lr in 0.001 0.0001 0.00001
do
for batch in 8 16 32 64
do
for len in 64 128 256 512
do
nohup python3 train.py --lr ${lr} --batch_size ${batch} --max_length ${len} &> logs/logs-${lr}-${batch}-${len}.txt
done
done
done
'Python' 카테고리의 다른 글
| [Python] dotenv로 api key 환경변수 설정하기 / 숨기기 (1) | 2025.08.13 |
|---|---|
| [python] pip 설치 시 SSLError 문제 해결하기 (1) | 2025.08.12 |
| [Python] 패키지 버전 확인하기 with code (0) | 2023.12.27 |
| [Wandb] Wandb 사용법 + Sweep with Pytorch (1) | 2023.12.21 |
| [Python] UnicodeDecodeError: 'utf-8' codec can't decode byte 0x80 in position 0: invalid start byte (0) | 2023.07.03 |