自学内容网 自学内容网

每天五分钟深度学习PyTorch:如何使用GPU来跑深度学习算法模型?

本文重点

我们前面介绍pytorch的时候,我们提到过它可以使用GPU加速,那么如何才能完成GPU的加速呢?在pytorch中非常简单,我们只需要将数据计算,模型放到GPU上就行,这样就可以使用GPU来跑深度学习算法模型了。

如何判断我们的电脑是否支持GPU

pytorch中关于GPU的一些相关api

import torch
print(torch.cuda.device_count())#返回gpu数量;
print(torch.cuda.get_device_name(0))#返回gpu名字,设备索引默认从0开始;
print(torch.cuda.current_device())#返回当前设备索引

定义tensor放到 GPU 上

gpu_tensor = torch.randn(10, 20).cuda(0) # 将 tensor 放到第一个 GPU 上
gpu_tensor

原文地址:https://blog.csdn.net/huanfeng_AI/article/details/142622923

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!