Pytorch结合PyG实现MLP的方法是什么

其他教程   发布日期:2025年03月30日   浏览次数:165

这篇“Pytorch结合PyG实现MLP的方法是什么”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“Pytorch结合PyG实现MLP的方法是什么”文章吧。

导入库和数据

首先,我们需要导入PyTorch和PyG库,然后准备好我们的数据。例如,我们可以使用以下方式生成一个简单的随机数据集:

  1. from torch.utils.data import random_split
  2. from torch_geometric.datasets import TUDataset
  3. dataset = TUDataset(root='/tmp/ENZYMES', name='ENZYMES')
  4. train_dataset, test_dataset = random_split(dataset, [len(dataset) - 1000, 1000])

其中,

  1. TUDataset
是PyG提供的图形数据集之一。这里我们选择了
  1. ENZYMES
数据集并存储到
  1. /tmp/ENZYMES
文件夹中。然后我们将该数据集分成训练集和测试集,其中训练集包含所有数据减去最后1000个数据,测试集则为最后1000个数据。

定义模型结构

接下来,我们需要定义MLP模型的结构。通过PyTorch和PyG,我们可以自己定义完整的MLP模型或者利用现有的库函数快速构建模型。在这里,我们将使用

  1. torch.nn.Sequential
函数逐层堆叠多个线性层来实现MLP模型。以下是MLP模型定义的示例代码:
  1. import torch.nn as nn
  2. from torch_geometric.nn import MLP
  3. class Net(nn.Module):
  4. def __init__(self, in_channels, hidden_channels, out_channels, num_layers=3):
  5. super(Net, self).__init__()
  6. self.num_layers = num_layers
  7. self.mlp = MLP([in_channels] + [hidden_channels] * (num_layers-1) + [out_channels])
  8. def forward(self, x):
  9. return self.mlp(x)

上述代码中,我们定义了一个

  1. Net
类用于构建MLP网络,接收输入通道数、隐藏层节点数、输出通道数以及MLP层数作为参数。例如,我们可以按照以下方式创建一个拥有 4 层、128 个隐藏节点、并将度为图结构作为输入的MLP模型:
  1. model = Net(in_channels=dataset.num_node_features, hidden_channels=128, out_channels=dataset.num_classes, num_layers=4)

定义训练函数

然后,我们需要定义训练函数来训练我们的MLP神经网络。在这里,我们将使用交叉熵损失和Adam优化器进行训练,并在每一个epoch结束时计算准确率并打印出来。以下是训练函数的示例代码:

  1. import torch.optim as optim
  2. from torch_geometric.data import DataLoader
  3. from tqdm import tqdm
  4. def train(model, loader, optimizer, loss_fn):
  5. model.train()
  6. correct = 0
  7. total_loss = 0
  8. for data in tqdm(loader, desc='Training'):
  9. optimizer.zero_grad()
  10. out = model(data.x)
  11. pred = out.argmax(dim=1)
  12. loss = loss_fn(out, data.y)
  13. loss.backward()
  14. optimizer.step()
  15. total_loss += loss.item() * data.num_graphs
  16. correct += pred.eq(data.y).sum().item()
  17. return total_loss / len(loader.dataset), correct / len(loader.dataset)

在上述代码中,我们遍历加载器中的每个数据批次,并对模型进行培训。对于每个图数据批次,我们计算网络输出、预测和损失,然后通过反向传播来更新权重。最后,我们将总损失和正确率记录下来并返回。

定义测试函数

接下来,我们还需要定义测试函数来测试我们的MLP神经网络性能表现。我们将利用与训练函数相同的输出参数进行测试,并打印出最终的测试准确率。以下是测试函数的示例代码:

  1. def test(model, loader, loss_fn):
  2. model.eval()
  3. correct = 0
  4. total_loss = 0
  5. with torch.no_grad():
  6. for data in tqdm(loader, desc='Testing'):
  7. out = model(data.x)
  8. pred = out.argmax(dim=1)
  9. loss = loss_fn(out, data.y)
  10. total_loss += loss.item() * data.num_graphs
  11. correct += pred.eq(data.y).sum().item()
  12. return total_loss / len(loader.dataset), correct / len(loader.dataset)

在上述代码中,我们对测试数据集中的所有数据进行了循环,并计算网络的输出和预测。我们记录下总损失和正确分类的数据量,并返回损失和准确率之间的比率(我们使用该比率而不是精度来反映测试表现通常较小)。

训练模型并评估训练结果

最后,我们可以使用前面定义过的函数来定义主函数,从而完成MLP神经网络的训练和测试。以下是主函数的示例代码:

  1. if __name__ == '__main__':
  2. device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
  3. model = Net(in_channels=dataset.num_node_features, hidden_channels=128, out_channels=dataset.num_classes, num_layers=4).to(device)
  4. loader = DataLoader(train_dataset, batch_size=128, shuffle=True)
  5. test_loader = DataLoader(test_dataset, batch_size=128)
  6. optimizer = optim.Adam(model.parameters(), lr=0.01)
  7. loss_fn = nn.CrossEntropyLoss()
  8. for epoch in range(1, 201):
  9. train_loss, train_acc = train(model, loader, optimizer, loss_fn)
  10. test_loss, test_acc = test(model, test_loader, loss_fn)
  11. print(f'Epoch {epoch:03d}, Train Loss: {train_loss:.4f}, Train Acc: {train_acc:.4f}, '
  12. f'Test Loss: {test_loss:.4f}, Test Acc: {test_acc:.4f}')

通过上述代码,我们就可以完成MLP神经网络的训练和测试。我们使用

  1. DataLoader
函数进行数据加载,设置学习率、损失函数、训练轮数等超参数。最后,我们可以在屏幕上看到每个时代的准确率和损失值,并通过它们评估模型的训练表现。

以上就是Pytorch结合PyG实现MLP的方法是什么的详细内容,更多关于Pytorch结合PyG实现MLP的方法是什么的资料请关注九品源码其它相关文章!