diff --git a/beginner_source/hyperparameter_tuning_tutorial.py b/beginner_source/hyperparameter_tuning_tutorial.py index 9bd3ab5b..5239f65d 100644 --- a/beginner_source/hyperparameter_tuning_tutorial.py +++ b/beginner_source/hyperparameter_tuning_tutorial.py @@ -25,7 +25,7 @@ | -이 튜토리얼을 실행하기 위해 아래의 패키지가 설치되어 있는지 확인하세요: +이 튜토리얼을 실행하기 위해 아래의 패키지가 설치되어 있는지 확인하세요. - ``ray[tune]``: 배포된 하이퍼파라미터 튜닝 라이브러리 - ``torchvision``: 데이터 변형을 위해 필요 @@ -33,7 +33,7 @@ 설정 / 불러오기 ----------------- -필요한 라이브러리들을 불러오는 것(import)으로 시작해보겠습니다: +필요한 라이브러리들을 불러오는 것(import)으로 시작해보겠습니다. """ from functools import partial import os @@ -89,7 +89,7 @@ def load_data(data_dir="./data"): # 구성 가능한 신경망 # --------------------------- # 구성 가능한 파라미터만 튜닝이 가능합니다. -# 이 예시를 통해 fully connected layer 크기를 지정할 수 있습니다: +# 이 예시를 통해 fully connected layer 크기를 지정할 수 있습니다. class Net(nn.Module): @@ -180,7 +180,7 @@ def forward(self, x): # Ray Tune으로 통신하기 # ~~~~~~~~~~~~~~~~~~~~~~~~~~~ # -# 가장 흥미로운 부분은 Ray Tune과의 통신입니다: +# 가장 흥미로운 부분은 Ray Tune과의 통신입니다. # # .. code-block:: python # @@ -325,7 +325,7 @@ def train_cifar(config, data_dir=None): # ------------------------------------------- # 일반적으로 머신러닝 모델의 성능은 모델 학습 시 사용하지 않은 데이터를 # 테스트셋으로 따로 떼어낸 뒤, 이를 사용하여 테스트합니다. -# 이러한 테스트셋 또한 함수로 감싸둘 수 있습니다: +# 이러한 테스트셋 또한 함수로 감싸둘 수 있습니다. def test_accuracy(net, device="cpu"): trainset, testset = load_data() @@ -353,7 +353,7 @@ def test_accuracy(net, device="cpu"): # # 검색 공간 구성 # ---------------------------- -# 마지막으로 Ray Tune의 검색 공간을 정의해야 합니다. 예시는 다음과 같습니다: +# 마지막으로 Ray Tune의 검색 공간을 정의해야 합니다. 예시는 다음과 같습니다. # # .. code-block:: python # @@ -444,12 +444,12 @@ def main(num_samples=10, max_num_epochs=10, gpus_per_trial=2): if __name__ == "__main__": - # 매 실험당 사용할 GPU 수를 여기에서 변경할 수 있습니다: + # 매 실험당 사용할 GPU 수를 여기에서 변경할 수 있습니다. main(num_samples=10, max_num_epochs=10, gpus_per_trial=0) ###################################################################### -# 코드를 실행하면 결과는 다음과 같이 나올 것입니다: +# 코드를 실행하면 결과는 다음과 같이 나올 것입니다. # # .. code-block:: sh #