Skip to content
Open
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
12 changes: 6 additions & 6 deletions beginner_source/saving_loading_models.py
Original file line number Diff line number Diff line change
Expand Up @@ -146,7 +146,7 @@
# model.eval()
#
# .. note::
# PyTorch 버전 1.6에서는 ``torch.save`` 가 새로운 Zip파일-기반의 파일
# PyTorch 버전 1.6에서는 ``torch.save`` 가 새로운 Zip 파일-기반의 파일
# 포맷을 사용하도록 변경되었습니다. ``torch.load`` 는 예전 방식의 파일들을
# 읽어올 수 있도록 하고 있습니다. 어떤 이유에서든 ``torch.save`` 가 예전
# 방식을 사용하도록 하고 싶다면, ``kwargs`` 매개변수로
Expand Down Expand Up @@ -288,7 +288,7 @@
# 때는 ``.tar`` 확장자를 사용하는 것이 일반적인 규칙입니다.
#
# 항목들을 불러올 때에는 먼저 모델과 옵티마이저를 초기화한 후, ``torch.load()``
# 를 사용하여 사전을 불러옵니다. 이후로는 저장된 항목들을 사전에 원하는대로 사전에
# 를 사용하여 사전을 불러옵니다. 이후로는 저장된 항목들을 원하는 대로 사전에
# 질의하여 쉽게 접근할 수 있습니다.
#
# 추론을 실행하기 전에는 반드시 ``model.eval()`` 을 호출하여 드롭아웃 및 배치
Expand All @@ -299,7 +299,7 @@


######################################################################
# 여러개(multiple)의 모델을 하나의 파일에 저장하기
# 여러 개(multiple)의 모델을 하나의 파일에 저장하기
# -------------------------------------------------------
#
# 저장하기:
Expand Down Expand Up @@ -337,7 +337,7 @@
# modelA.train()
# modelB.train()
#
# GAN, Seq2Seq 또는 앙상블 모델과 같이 여러개의 여러개의 ``torch.nn.Modules`` 로
# GAN, Seq2Seq 또는 앙상블 모델과 같이 여러 개의 ``torch.nn.Modules`` 로
# 구성된 모델을 저장하는 경우에는 일반 체크포인트를 저장할 때와 같은 방식을
# 따릅니다. 즉, 각 모델의 *state_dict* 와 해당 옵티마이저를 사전으로 저장합니다.
# 앞에서 언급했던 것과 같이, 학습을 재개하는데 필요한 다른 항목들을 사전에 추가하여
Expand All @@ -347,7 +347,7 @@
# 일반적인 규칙입니다.
#
# 항목들을 불러올 때에는 먼저 모델과 옵티마이저를 초기화한 후, ``torch.load()``
# 를 사용하여 사전을 불러옵니다. 이후로는 저장된 항목들을 사전에 원하는대로 사전에
# 를 사용하여 사전을 불러옵니다. 이후로는 저장된 항목들을 원하는 대로 사전에
# 질의하여 쉽게 접근할 수 있습니다.
#
# 추론을 실행하기 전에는 반드시 ``model.eval()`` 을 호출하여 드롭아웃 및 배치
Expand Down Expand Up @@ -465,7 +465,7 @@
#
# CPU에서 학습한 모델을 GPU에서 불러올 때는 ``torch.load()`` 함수의
# ``map_location`` 인자에 ``cuda:device_id`` 을 설정합니다. 이렇게 하면 모델이 해당
# GPU 장치에 불러와집니다. 다음으로 ``model.to(torch.device('cuda'))`` 을 호출하여
# GPU 장치에 불러옵니다. 다음으로 ``model.to(torch.device('cuda'))`` 을 호출하여
# 모델의 매개변수 Tensor들을 CUDA Tensor들로 변환해야 합니다. 마지막으로 모든
# 모델 입력에 ``.to(torch.device('cuda'))`` 을 사용하여 CUDA 최적화된 모델을 위한
# 데이터로 만들어야 합니다. ``my_tensor.to(device)`` 를 호출하면 GPU에 ``my_tensor``
Expand Down