代码已经调通,跑出来的效果如下:#coding=gbkimporttorchimportmatplotlib.pyplotaspltfromtorch.autogradimpo
代码已经调通,跑出来的效果如下:
# coding=gbk
import torch
import matplotlib.pyplot as plt
from torch.autograd import Variable
import torch.nn.functional as F
'''
Pytorch是一个拥有强力GPU加速的张量和动态构建网络的库,其主要构建是张量,所以可以把PyTorch当做Numpy
来用,Pytorch的很多操作好比Numpy都是类似的,但是其能够在GPU上运行,所以有着比Numpy快很多倍的速度。
训练完了,发现隐层越大,拟合的速度越是快,拟合的效果越是好
'''
def train():
print('------ 构建数据集 ------')
# torch.linspace是为了生成连续间断的数据,第一个参数表示起点,第二个参数表示终点,第三个参数表示将这个区间分成平均几份,即生成几个数据
x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1)
#torch.rand返回的是[0,1]之间的均匀分布 这里是使用一个计算式子来构造出一个关联结果,当然后期要学的也就是这个式子
y = x.pow(2) + 0.2 * torch.rand(x.size())
# Variable是将tensor封装了下,用于自动求导使用
x, y = Variable(x), Variable(y)
#绘图展示
plt.scatter(x.data.numpy(), y.data.numpy())
#plt.show()
print('------ 搭建网络 ------')
#使用固定的方式继承并重写 init和forword两个类
class Net(torch.nn.Module):
def __init__(self,n_feature,n_hidden,n_output):
#初始网络的内部结构
super(Net,self).__init__()
self.hidden=torch.nn.Linear(n_feature,n_hidden)
self.predict=torch.nn.Linear(n_hidden,n_output)
def forward(self, x):
#一次正向行走过程
x=F.relu(self.hidden(x))
x=self.predict(x)
return x
net=Net(n_feature=1,n_hidden=1000,n_output=1)
print('网络结构为:',net)
print('------ 启动训练 ------')
loss_func=F.mse_loss
optimizer=torch.optim.SGD(net.parameters(),lr=0.001)
#使用数据 进行正向训练,并对Variable变量进行反向梯度传播 启动100次训练
for t in range(10000):
#使用全量数据 进行正向行走
prediction=net(x)
loss=loss_func(prediction,y)
optimizer.zero_grad() #清除上一梯度
loss.backward() #反向传播计算梯度
optimizer.step() #应用梯度
#间隔一段,对训练过程进行可视化展示
if t%5==0:
plt.cla()
plt.scatter(x.data.numpy(),y.data.numpy()) #绘制真是曲线
plt.plot(x.data.numpy(),prediction.data.numpy(),'r-',lw=5)
plt.text(0.5,0,'Loss='+str(loss.data[0]),fontdict={'size':20,'color':'red'})
plt.pause(0.1)
plt.ioff()
plt.show()
print('------ 预测和可视化 ------')
if __name__=='__main__':
train()
以上这篇pytorch-神经网络拟合曲线实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。
pytorch 神经网络 拟合曲线