返回

pytorch-使用GPU加速模型训练

发布时间:2023-05-04 20:52:50 299
# 研究

文章目录

  • ​​1、问题描述​​
  • ​​2、解决方案​​

1、问题描述

研究手写数字识别时,总是使用CPU训练模型并不是一个很好的选择,GPU的每个核心虽然慢于CPU,但是GPU对图像处理的速度是比CPU要快的多的。

2、解决方案

network = Net()


def train(epoch,train_loader):
......
for batch_idx,(data,target) in enumerate(train_loader):
output = network(data)
loss = F.nll_loss(output, target)
optimizer.zero_grad()
loss.backward()
optimizer.step()
......
network = Net()
network.cuda()
def train(epoch,train_loader):
......
for batch_idx,(data,target) in enumerate(train_loader):
#这里要改一下
data = Variable(data).cuda()
target = Variable(target).cuda()
output = network(data)
loss = F.nll_loss(output, target)
optimizer.zero_grad()
loss.backward()
optimizer.step()
......

 

特别声明:以上内容(图片及文字)均为互联网收集或者用户上传发布,本站仅提供信息存储服务!如有侵权或有涉及法律问题请联系我们。
举报
评论区(0)
按点赞数排序
用户头像
精选文章
thumb 中国研究员首次曝光美国国安局顶级后门—“方程式组织”
thumb 俄乌线上战争,网络攻击弥漫着数字硝烟
thumb 从网络安全角度了解俄罗斯入侵乌克兰的相关事件时间线
下一篇
图像处理-与,或等运算 2023-05-04 18:02:23