diff --git a/beginner_source/saving_loading_models.py b/beginner_source/saving_loading_models.py index 1cde925a..7bc8c499 100644 --- a/beginner_source/saving_loading_models.py +++ b/beginner_source/saving_loading_models.py @@ -146,7 +146,7 @@ # model.eval() # # .. note:: -# PyTorch 버전 1.6에서는 ``torch.save`` 가 새로운 Zip파일-기반의 파일 +# PyTorch 버전 1.6에서는 ``torch.save`` 가 새로운 Zip 파일-기반의 파일 # 포맷을 사용하도록 변경되었습니다. ``torch.load`` 는 예전 방식의 파일들을 # 읽어올 수 있도록 하고 있습니다. 어떤 이유에서든 ``torch.save`` 가 예전 # 방식을 사용하도록 하고 싶다면, ``kwargs`` 매개변수로 @@ -288,7 +288,7 @@ # 때는 ``.tar`` 확장자를 사용하는 것이 일반적인 규칙입니다. # # 항목들을 불러올 때에는 먼저 모델과 옵티마이저를 초기화한 후, ``torch.load()`` -# 를 사용하여 사전을 불러옵니다. 이후로는 저장된 항목들을 사전에 원하는대로 사전에 +# 를 사용하여 사전을 불러옵니다. 이후로는 저장된 항목들을 원하는 대로 사전에 # 질의하여 쉽게 접근할 수 있습니다. # # 추론을 실행하기 전에는 반드시 ``model.eval()`` 을 호출하여 드롭아웃 및 배치 @@ -299,7 +299,7 @@ ###################################################################### -# 여러개(multiple)의 모델을 하나의 파일에 저장하기 +# 여러 개(multiple)의 모델을 하나의 파일에 저장하기 # ------------------------------------------------------- # # 저장하기: @@ -337,7 +337,7 @@ # modelA.train() # modelB.train() # -# GAN, Seq2Seq 또는 앙상블 모델과 같이 여러개의 여러개의 ``torch.nn.Modules`` 로 +# GAN, Seq2Seq 또는 앙상블 모델과 같이 여러 개의 ``torch.nn.Modules`` 로 # 구성된 모델을 저장하는 경우에는 일반 체크포인트를 저장할 때와 같은 방식을 # 따릅니다. 즉, 각 모델의 *state_dict* 와 해당 옵티마이저를 사전으로 저장합니다. # 앞에서 언급했던 것과 같이, 학습을 재개하는데 필요한 다른 항목들을 사전에 추가하여 @@ -347,7 +347,7 @@ # 일반적인 규칙입니다. # # 항목들을 불러올 때에는 먼저 모델과 옵티마이저를 초기화한 후, ``torch.load()`` -# 를 사용하여 사전을 불러옵니다. 이후로는 저장된 항목들을 사전에 원하는대로 사전에 +# 를 사용하여 사전을 불러옵니다. 이후로는 저장된 항목들을 원하는 대로 사전에 # 질의하여 쉽게 접근할 수 있습니다. # # 추론을 실행하기 전에는 반드시 ``model.eval()`` 을 호출하여 드롭아웃 및 배치 @@ -465,7 +465,7 @@ # # CPU에서 학습한 모델을 GPU에서 불러올 때는 ``torch.load()`` 함수의 # ``map_location`` 인자에 ``cuda:device_id`` 을 설정합니다. 이렇게 하면 모델이 해당 -# GPU 장치에 불러와집니다. 다음으로 ``model.to(torch.device('cuda'))`` 을 호출하여 +# GPU 장치에 불러옵니다. 다음으로 ``model.to(torch.device('cuda'))`` 을 호출하여 # 모델의 매개변수 Tensor들을 CUDA Tensor들로 변환해야 합니다. 마지막으로 모든 # 모델 입력에 ``.to(torch.device('cuda'))`` 을 사용하여 CUDA 최적화된 모델을 위한 # 데이터로 만들어야 합니다. ``my_tensor.to(device)`` 를 호출하면 GPU에 ``my_tensor``