Pytorch+PyG实现EdgeCNN的方法是什么

其他教程   发布日期:2025年03月29日   浏览次数:104

这篇文章主要介绍了Pytorch+PyG实现EdgeCNN的方法是什么的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇Pytorch+PyG实现EdgeCNN的方法是什么文章都会有所收获,下面我们一起来看看吧。

1.EdgeCNN简介

EdgeCNN是一种用于图像点云处理的卷积神经网络(Convolutional Neural Network,CNN)模型。与传统的CNN仅能处理图片二维数据不同,EdgeCNN可以对三维点云中每个点周围的局部邻域进行操作,并适用于物体识别、深度估计、自动驾驶等多项任务。

2. 实现步骤

2.1 数据准备

在本实验中,我们使用了一个包含4万个点云的数据集ModelNet10,作为示例。与其它标准图像数据集不同的是,这个数据集中图形的构成量非常大,而且各图之间结构差异很大,因此需要进行大量的预处理工作。

  1. # 导入模型数据集
  2. from torch_geometric.datasets import ModelNet
  3. # 加载ModelNet数据集
  4. dataset = ModelNet(root='./modelnet', name='10')
  5. data = dataset[0]
  6. # 定义超级参数
  7. num_points = 1024
  8. batch_size = 32
  9. train_dataset_size = 8000
  10. # 将数据集分割成训练、验证及测试三个数据集
  11. train_dataset = data[0:train_dataset_size]
  12. val_dataset = data[train_dataset_size: 9000]
  13. test_dataset = data[9000:]
  14. # 定义数据加载批处理器
  15. train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
  16. val_loader = DataLoader(val_dataset, batch_size=batch_size, shuffle=False)
  17. test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)

通过上述代码,我们先是导入ModelNet数据集并将其分割成训练、验证及测试三个数据集,并创建了数据加载批处理器,以便于在训练过程中对这些数据进行有效的处理。

2.2 实现模型

在定义EdgeCNN模型时,我们需要根据图像点云经常使用的架构定义网络结构。同时,在实现卷积操作时应引入相应的邻域信息,来使得网络能够学习到系统中附近点之间的关系。

  1. from torch.nn import Sequential as Seq, Linear as Lin, ReLU
  2. from torch_geometric.nn import EdgeConv, global_max_pool
  3. class EdgeCNN(torch.nn.Module):
  4. def __init__(self, dataset):
  5. super(EdgeCNN, self).__init__()
  6. # 定义基础参数
  7. self.input_dim = dataset.num_features
  8. self.output_dim = dataset.num_classes
  9. self.num_points = num_points
  10. # 定义模型结构
  11. self.conv1 = EdgeConv(Seq(Lin(self.input_dim, 32), ReLU()))
  12. self.conv2 = EdgeConv(Seq(Lin(32, 64), ReLU()))
  13. self.conv3 = EdgeConv(Seq(Lin(64, 128), ReLU()))
  14. self.conv4 = EdgeConv(Seq(Lin(128, 256), ReLU()))
  15. self.fc1 = torch.nn.Linear(256, 1024)
  16. self.fc2 = torch.nn.Linear(1024, self.output_dim)
  17. def forward(self, pos, batch):
  18. # 构造图
  19. edge_index = radius_graph(pos, r=0.6, batch=batch, loop=False)
  20. # 第一层CNN模型的卷积 + 池化处理
  21. x = F.relu(self.conv1(x=pos, edge_index=edge_index))
  22. x = global_max_pool(x, batch)
  23. # 第二层CNN模型的卷积 + 池化处理
  24. edge_index = radius_graph(x, r=0.9, batch=batch, loop=False)
  25. x = F.relu(self.conv2(x=x, edge_index=edge_index))
  26. x = global_max_pool(x, batch)
  27. # 第三层CNN模型的卷积 + 池化处理
  28. edge_index = radius_graph(x, r=1.2, batch=batch, loop=False)
  29. x = F.relu(self.conv3(x=x, edge_index=edge_index))
  30. x = global_max_pool(x, batch)
  31. # 第四层CNN模型的卷积 + 池化处理
  32. edge_index = radius_graph(x, r=1.5, batch=batch, loop=False)
  33. x = F.relu(self.conv4(x=x, edge_index=edge_index))
  34. # 定义全连接网络
  35. x = global_max_pool(x, batch)
  36. x = F.relu(self.fc1(x))
  37. x = self.fc2(x)
  38. return F.log_softmax(x, dim=-1)

在上述代码中,实现了基于EdgeCNN的模型的各个卷积层和全连接层,并使用

  1. radius_graph
等函数将局部区域问题归约到定义的卷积核检测范围之内,以便更好地对点进行分析和特征提取。最后结合全连接层输出一个维度为类别数的向量,并通过softmax函数来计算损失。

2.3 模型训练

在定义好EdgeCNN网络结构之后,我们还需要指定合适的优化器、损失函数,并控制训练轮数、批大小与学习率等超参数。同时也需要记录大量日志信息,方便后期跟踪及管理。

  1. # 定义训练计划,包括损失函数、优化器及迭代次数等
  2. train_epochs = 50
  3. learning_rate = 0.01
  4. criterion = nn.CrossEntropyLoss()
  5. optimizer = optim.Adam(edge_cnn.parameters(), lr=learning_rate)
  6. losses_per_epoch = []
  7. accuracies_per_epoch = []
  8. for epoch in range(train_epochs):
  9. running_loss = 0.0
  10. running_corrects = 0.0
  11. count = 0.0
  12. for samples in train_loader:
  13. optimizer.zero_grad()
  14. pos, batch, label = samples.pos, samples.batch, samples.y.to(torch.long)
  15. out = edge_cnn(pos, batch)
  16. loss = criterion(out, label)
  17. loss.backward()
  18. optimizer.step()
  19. running_loss += loss.item() / len(train_dataset)
  20. running_corrects += torch.sum(torch.argmax(out, dim=1) == label).item() / len(train_dataset)
  21. count += 1
  22. losses_per_epoch.append(running_loss)
  23. accuracies_per_epoch.append(running_corrects)
  24. if (epoch + 1) % 5 == 0:
  25. print("Train Epoch {}/{} Loss {:.4f} Accuracy {:.4f}".format(
  26. epoch + 1, train_epochs, running_loss, running_corrects))

在训练过程中,我们遍历每个batch,通过反向传播算法进行优化,并更新loss及accuracy输出。同时,为了方便可视化与记录,需要将训练过程中的loss和accuracy输出到相应的容器中,以便后期进行分析和处理。

以上就是Pytorch+PyG实现EdgeCNN的方法是什么的详细内容,更多关于Pytorch+PyG实现EdgeCNN的方法是什么的资料请关注九品源码其它相关文章!