반응형
소개
torch.cuda.is_available 함수는 PyTorch에서 현재 CUDA(즉, GPU) 지원이 가능한지 확인하는 함수입니다. 이 함수는 코드가 GPU에서 실행될 수 있는지 확인하는 데 사용되며, CUDA를 사용할 수 없는 경우 CPU에서 연산을 수행하도록 대체 경로를 설정할 수 있습니다.
기본 사용법
상세 설명
- torch.cuda.is_available 함수는 현재 시스템에서 CUDA를 사용할 수 있는지 확인하는 데 사용됩니다.
- CUDA가 설치되어 있고, CUDA 호환 GPU가 있으며, 필요한 드라이버가 올바르게 설치된 경우 True를 반환합니다.
- 그렇지 않은 경우 False를 반환합니다.
- 이 함수는 주로 코드 실행 시 GPU 가속이 가능하면 사용하고, 불가능하면 CPU에서 실행하도록 설정할 때 사용됩니다.
예시 설명
- torch.cuda.is_available()가 True를 반환하면 GPU에서 모델을 실행하거나 데이터를 처리할 수 있도록 설정하고, False를 반환하면 CPU에서 실행합니다.
- GPU가 가용한 경우 torch.device("cuda")를 사용하여 GPU에 텐서나 모델을 이동시킬 수 있습니다.
import torch
# 모델을 GPU에서 실행할 수 있는지 확인
if torch.cuda.is_available():
model = MyModel().to("cuda")
print("Model moved to GPU.")
else:
model = MyModel().to("cpu")
print("Model running on CPU.")
# 데이터 텐서를 GPU로 전송
data = torch.randn(100, 100)
if torch.cuda.is_available():
data = data.to("cuda")
print("Data moved to GPU.")
else:
print("Data remains on CPU.")
라이센스
PyTorch의 표준 라이브러리와 내장 함수들은 BSD-style license 하에 배포됩니다. 이 라이센스는 자유 소프트웨어 라이센스로, 상업적 사용을 포함한 거의 모든 용도로 사용이 가능합니다. 라이센스와 저작권 정보는 PyTorch의 공식 GitHub 리포지토리에서 확인할 수 있습니다.
관련 내용
반응형
'함수 설명 > 인공지능 (Pytorch)' 카테고리의 다른 글
[PyTorch] 맞춤형 데이터셋 만들기: torch.utils.data.Dataset() 사용 가이드 (0) | 2024.08.16 |
---|---|
[PyTorch] 효율적인 데이터 배치: torch.utils.data.DataLoader() 사용 가이드 (0) | 2024.08.16 |
[PyTorch] 차원을 추가하라: torch.unsqueeze() 함수 사용법 이해하기 (0) | 2024.07.19 |
[PyTorch] 차원을 줄여라: torch.squeeze() 함수 사용법 이해하기 (0) | 2024.07.19 |
[PyTorch] 텐서 펼치기: torch.flatten() 사용 가이드 (0) | 2024.07.19 |