您现在的位置是:主页 > news > 创意设计网站推荐/重庆seo网站收录优化
创意设计网站推荐/重庆seo网站收录优化
admin2025/5/13 23:11:12【news】
简介创意设计网站推荐,重庆seo网站收录优化,深圳关键词快速排名,购物网站建设好处本代码通过使用Pytorch动态实现线性回归: import torch import torch.nn.functional as F from torch.autograd import Variable import matplotlib.pyplot as plt 先看torch.squeeze() 这个函数主要对数据的维度进行压缩,去掉维数为1的的维度ÿ…
创意设计网站推荐,重庆seo网站收录优化,深圳关键词快速排名,购物网站建设好处本代码通过使用Pytorch动态实现线性回归:
import torch
import torch.nn.functional as F
from torch.autograd import Variable
import matplotlib.pyplot as plt
先看torch.squeeze() 这个函数主要对数据的维度进行压缩,去掉维数为1的的维度ÿ…
本代码通过使用Pytorch动态实现线性回归:
import torch
import torch.nn.functional as F
from torch.autograd import Variable
import matplotlib.pyplot as plt'''
先看torch.squeeze() 这个函数主要对数据的维度进行压缩,去掉维数为1的的维度,比如是一行或者一列这种,一个一行三列(1,3)的数去掉第一个维数为一的维度之后就变成(3)行。squeeze(a)就是将a中所有为1的维度删掉。不为1的维度没有影响。a.squeeze(N) 就是去掉a中指定的维数为一的维度。还有一种形式就是b=torch.squeeze(a,N) a中去掉指定的定的维数为一的维度。再看torch.unsqueeze()这个函数主要是对数据维度进行扩充。给指定位置加上维数为一的维度,比如原本有个三行的数据(3),在0的位置加了一维就变成一行三列(1,3)。a.squeeze(N) 就是在a中指定位置N加上一个维数为1的维度。还有一种形式就是b=torch.squeeze(a,N) a就是在a中指定位置N加上一个维数为1的维度'''
x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1) # x data (tensor), shape=(100, 1)
y = x.pow(2) + 0.2*torch.rand(x.size()) # noisy y data (tensor), shape=(100, 1)class Net(torch.nn.Module):def __init__(self, n_feature, n_hidden, n_output):super(Net, self).__init__()self.hidden = torch.nn.Linear(n_feature, n_hidden) # hidden layerself.predict = torch.nn.Linear(n_hidden, n_output) # output layerdef forward(self, x):x = F.relu(self.hidden(x)) # activation function for hidden layerx = self.predict(x) # linear outputreturn xnet = Net(n_feature=1, n_hidden=10, n_output=1) # define the network
print(net) # net architectureoptimizer = torch.optim.SGD(net.parameters(), lr=0.2)
loss_func = torch.nn.MSELoss() # this is for regression mean squared lossplt.ion() # 打开交互模式for t in range(300):prediction = net(x) # input x and predict based on xloss = loss_func(prediction, y) # must be (1. nn output, 2. target)optimizer.zero_grad() # clear gradients for next trainloss.backward() # backpropagation, compute gradientsoptimizer.step() # apply gradientsif t % 5 == 0:#绘制和显示学习率plt.cla() # 即清除当前图形中的当前活动轴。其他轴不受影响plt.scatter(x.data.numpy(), y.data.numpy()) #散点图plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)plt.text(0.5, 0, 'Loss=%.4f' % loss.data.numpy(), fontdict={'size': 20, 'color': 'red'})plt.pause(0.1)plt.ioff() # 显示前关掉交互模式
plt.show()
显示拟合结果:
了解更多关于《计算机视觉与图形学》相关知识,请关注公众号:
下载我们视频中代码和相关讲义,请在公众号回复:计算机视觉课程资料