PyTorch深度学习入门
深度学习是一种人工智能的分支,其目标是通过模拟人脑神经网络的方式来实现机器的学习和自主决策。PyTorch是一个基于Python的开源深度学习库,它提供了丰富的工具和接口,使得深度学习模型的建立、训练和部署变得更加简单和高效。本文将介绍PyTorch深度学习的基本概念和操作,以及一个简单的示例代码。
PyTorch基本概念
张量(Tensor)
在PyTorch中,张量是深度学习的基本数据结构。它类似于Numpy的多维数组,可以表示标量、向量、矩阵等。我们可以使用torch.Tensor()
函数来创建一个张量,并通过指定数据类型和形状来初始化它。
import torch
# 创建一个标量(0维张量)
scalar = torch.Tensor([3.14])
# 创建一个向量(1维张量)
vector = torch.Tensor([1, 2, 3, 4])
# 创建一个矩阵(2维张量)
matrix = torch.Tensor([[1, 2], [3, 4]])
# 创建一个3维张量
tensor = torch.Tensor([[[1, 2], [3, 4]], [[5, 6], [7, 8]]])
模型(Model)
在深度学习中,模型是指由多个层(Layer)组成的神经网络。PyTorch提供了torch.nn.Module
作为模型的基类,我们可以通过继承该类来定义自己的模型,并实现前向传播(Forward)的逻辑。
import torch
import torch.nn as nn
class MyModel(nn.Module):
def __init__(self):
super(MyModel, self).__init__()
self.fc = nn.Linear(10, 5)
def forward(self, x):
x = self.fc(x)
return x
model = MyModel()
损失函数(Loss Function)
损失函数用来衡量模型预测结果与真实值之间的差异。在PyTorch中,我们可以使用torch.nn
模块提供的各种损失函数,例如均方误差(MSE)损失函数、交叉熵(CrossEntropy)损失函数等。
import torch
import torch.nn as nn
loss_fn = nn.MSELoss()
output = model(input)
target = torch.Tensor([1, 2, 3, 4, 5])
loss = loss_fn(output, target)
优化器(Optimizer)
优化器用来更新模型参数以最小化损失函数。PyTorch提供了各种优化器,常用的有随机梯度下降(SGD)优化器、Adam优化器等。
import torch
import torch.optim as optim
optimizer = optim.SGD(model.parameters(), lr=0.01)
# 在训练过程中,首先要清零梯度
optimizer.zero_grad()
# 计算损失
loss = loss_fn(output, target)
# 反向传播
loss.backward()
# 更新参数
optimizer.step()
示例代码:线性回归
接下来,我们将使用PyTorch实现一个简单的线性回归模型。首先,我们需要生成一些随机数据用于训练模型。
import torch
import torch.nn as nn
import torch.optim as optim
import numpy as np
import matplotlib.pyplot as plt
# 生成随机数据
np.random.seed(0)
torch.manual_seed(0)
x = np.random.rand(100, 1)
y = 2 * x + 1 + np.random.randn(100, 1) * 0.1
# 转换为张量
x = torch.from_numpy(x).float()
y = torch.from_numpy(y).float()
# 定义模型
model = nn.Linear(1, 1)
# 定义损失函数和优化器
loss_fn = nn.MSELoss()
optimizer = optim.SGD(model.parameters(), lr=0.1)
# 训练模型
losses = []
for epoch in range(100):
# 清零梯度