PyTorch 之Varible

灰太狼 2022-04-08 08:17 243阅读 0赞

构建Variable. 要谊意得传入一个参数 requires_grad=True ,这个参数表 是否对这个变量求梯度,默认的 Fa!se ,也就是不对这个变量求梯度,这里我们希望得到这些变量的梯度,所以需要传入这个参数从的代码中,我们看到了一行 y.backward() ,这 行代码就是所谓的自动求导,

  1. import torch
  2. import torch.nn.functional as F
  3. from torch.autograd import Variable
  4. import matplotlib.pyplot as plt
  5. x=Variable(torch.Tensor([1]),requires_grad=True)#默认为false
  6. w=Variable(torch.Tensor([2]),requires_grad=True)
  7. b=Variable(torch.Tensor([3]),requires_grad=True)
  8. y=w*x+b
  9. y.backward()#自动求导
  10. print(x.grad)#2
  11. print(w.grad)#1
  12. print(b.grad)#1

发表评论

表情:
评论列表 (有 0 条评论,243人围观)

还没有评论,来说两句吧...

相关阅读

    相关 PyTorch Varible

    构建Variable. 要谊意得传入一个参数 requires\_grad=True ,这个参数表 是否对这个变量求梯度,默认的 Fa!se ,也就是不对这个变量求梯度,这里我