每天五分钟深度学习PyTorch:如何使用GPU来跑深度学习算法模型?
本文重点
我们前面介绍pytorch的时候,我们提到过它可以使用GPU加速,那么如何才能完成GPU的加速呢?在pytorch中非常简单,我们只需要将数据计算,模型放到GPU上就行,这样就可以使用GPU来跑深度学习算法模型了。
如何判断我们的电脑是否支持GPU
pytorch中关于GPU的一些相关api
import torch
print(torch.cuda.device_count())#返回gpu数量;
print(torch.cuda.get_device_name(0))#返回gpu名字,设备索引默认从0开始;
print(torch.cuda.current_device())#返回当前设备索引
定义tensor放到 GPU 上
gpu_tensor = torch.randn(10, 20).cuda(0) # 将 tensor 放到第一个 GPU 上
gpu_tensor
原文地址:https://blog.csdn.net/huanfeng_AI/article/details/142622923
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!