본문 바로가기
함수 설명/인공지능 (Pytorch)

[PyTorch] GPU 사용 가능 여부 체크: torch.cuda.is_available() 사용 가이드

by First Adventure 2024. 8. 16.
반응형

소개

  torch.cuda.is_available 함수는 PyTorch에서 현재 CUDA(즉, GPU) 지원이 가능한지 확인하는 함수입니다. 이 함수는 코드가 GPU에서 실행될 수 있는지 확인하는 데 사용되며, CUDA를 사용할 수 없는 경우 CPU에서 연산을 수행하도록 대체 경로를 설정할 수 있습니다.

 

기본 사용법

상세 설명

  • torch.cuda.is_available 함수는 현재 시스템에서 CUDA를 사용할 수 있는지 확인하는 데 사용됩니다.
    • CUDA가 설치되어 있고, CUDA 호환 GPU가 있으며, 필요한 드라이버가 올바르게 설치된 경우 True를 반환합니다.
    • 그렇지 않은 경우 False를 반환합니다.
  • 이 함수는 주로 코드 실행 시 GPU 가속이 가능하면 사용하고, 불가능하면 CPU에서 실행하도록 설정할 때 사용됩니다.

예시 설명

  • torch.cuda.is_available()가 True를 반환하면 GPU에서 모델을 실행하거나 데이터를 처리할 수 있도록 설정하고, False를 반환하면 CPU에서 실행합니다.
  • GPU가 가용한 경우 torch.device("cuda")를 사용하여 GPU에 텐서나 모델을 이동시킬 수 있습니다.
import torch

# 모델을 GPU에서 실행할 수 있는지 확인
if torch.cuda.is_available():
    model = MyModel().to("cuda")
    print("Model moved to GPU.")
else:
    model = MyModel().to("cpu")
    print("Model running on CPU.")

# 데이터 텐서를 GPU로 전송
data = torch.randn(100, 100)
if torch.cuda.is_available():
    data = data.to("cuda")
    print("Data moved to GPU.")
else:
    print("Data remains on CPU.")

 

라이센스

  PyTorch의 표준 라이브러리와 내장 함수들은 BSD-style license 하에 배포됩니다. 이 라이센스는 자유 소프트웨어 라이센스로, 상업적 사용을 포함한 거의 모든 용도로 사용이 가능합니다. 라이센스와 저작권 정보는 PyTorch의 공식 GitHub 리포지토리에서 확인할 수 있습니다.

 

관련 내용

  

 

반응형