【DDRNet实战】单GPU环境下,从零构建细胞图像分割数据集与训练测试全流程
1. 环境准备与数据收集在开始细胞图像分割项目前我们需要先搭建好基础环境。我的实验设备是一台搭载NVIDIA GeForce RTX 3060笔记本显卡的Windows 11电脑配置了CUDA 11.7驱动。这个配置对于小规模细胞图像分割任务已经足够但需要注意显存管理。首先通过Anaconda创建Python虚拟环境是个好习惯。我推荐使用Python 3.8版本这个版本在兼容性和稳定性方面表现都不错conda create -n ddrnet python3.8 conda activate ddrnet接下来安装PyTorch时要注意与CUDA版本的匹配。对于CUDA 11.7正确的安装命令是pip install torch1.12.1cu117 torchvision0.13.1cu117 --extra-index-url https://download.pytorch.org/whl/cu117细胞图像的获取通常有两种途径公开数据集和自己采集。公开数据集如BBBCBroad Bioimage Benchmark Collection提供了大量标注好的细胞图像适合快速验证模型。如果是自己采集的数据建议使用专业显微镜设备拍摄保持统一的拍摄参数如放大倍数、光照条件等这样可以减少后续数据预处理的工作量。我这次使用的是实验室自建的细胞图像数据集共包含785张512×512像素的彩色图像。这些图像展示了不同处理条件下的细胞状态需要手动标注为四类背景0、健康细胞1、受损细胞2和细胞边缘3。标注工具推荐使用Labelme或CVAT它们都支持语义分割标注并可以导出为灰度图格式。2. 数据集构建与预处理2.1 数据标注与格式转换原始细胞图像通常保存为JPG或PNG格式而DDRNet需要的标签图像是8位灰度图其中每个像素的灰度值对应其类别标签。我的标注流程是先用Labelme绘制多边形标注区域然后通过脚本转换为灰度图。转换脚本的核心代码如下import numpy as np from PIL import Image def convert_label(json_path, output_path): with open(json_path) as f: data json.load(f) # 创建空白画布 label np.zeros((data[imageHeight], data[imageWidth]), dtypenp.uint8) # 填充标注区域 for shape in data[shapes]: if shape[label] healthy: class_id 1 elif shape[label] damaged: class_id 2 elif shape[label] edge: class_id 3 else: continue # 使用OpenCV填充多边形 points np.array(shape[points], dtypenp.int32) cv2.fillPoly(label, [points], colorclass_id) Image.fromarray(label).save(output_path)转换后的标签图像看起来几乎是全黑的这是因为大多数像素属于背景0只有少量区域被标注为1-3。这是正常现象可以用图像查看器调整对比度来验证标注是否正确。2.2 数据集目录结构设计DDRNet要求特定的目录结构。我在项目根目录下创建了如下结构data/ ├── drug/ # 自定义数据集名称 │ ├── image/ # 原始图像 │ │ ├── train/ │ │ ├── val/ │ │ └── test/ │ └── label/ # 标注图像 │ ├── train/ │ ├── val/ │ └── test/ └── list/ └── drug/ # 存放各集合的文件列表然后需要生成训练/验证/测试集的映射文件。我改进了原始文章的脚本增加了数据随机分割功能import os import random from sklearn.model_selection import train_test_split def split_dataset(image_dir, val_ratio0.15, test_ratio0.15): all_images sorted(os.listdir(image_dir)) # 先分割测试集 train_val, test train_test_split(all_images, test_sizetest_ratio, random_state42) # 再分割训练集和验证集 train, val train_test_split(train_val, test_sizeval_ratio/(1-test_ratio), random_state42) return train, val, test这个改进确保了数据分割的可重复性并且保持了各类别在分割集中的比例均衡。3. 模型配置与代码适配3.1 自定义数据集类实现DDRNet默认支持Cityscapes数据集我们需要为其添加自定义细胞数据集的支持。在lib/datasets目录下创建Drug.py继承自BaseDataset类。关键修改点包括更新图像均值和标准差这些值需要根据你的数据集计算。我使用以下代码计算得到def compute_mean_std(image_dir): pixel_values [] for img_name in os.listdir(image_dir): img Image.open(os.path.join(image_dir, img_name)) img np.array(img).astype(np.float32)/255 pixel_values.append(img.reshape(-1, 3)) pixels np.concatenate(pixel_values, axis0) mean np.mean(pixels, axis0) std np.std(pixels, axis0) return mean, std配置类别权重处理类别不平衡问题很重要。我使用了中值频率平衡方法计算权重def compute_class_weights(label_dir, num_classes): pixel_counts np.zeros(num_classes) for label_name in os.listdir(label_dir): label np.array(Image.open(os.path.join(label_dir, label_name))) counts np.bincount(label.flatten(), minlengthnum_classes) pixel_counts counts freq pixel_counts / pixel_counts.sum() median np.median(freq[freq 0]) weights median / freq return weights3.2 配置文件调整ddrnet23_slim.yaml是主要的配置文件需要修改以下关键参数DATASET: NAME: drug # 数据集名称 NUM_CLASSES: 4 # 类别数 BASE_SIZE: 512 # 图像基础尺寸 CROP_SIZE: 512 # 裁剪尺寸 TRAIN: BATCH_SIZE_PER_GPU: 4 # 根据显存调整 LR: 0.01 # 初始学习率对于RTX 3060 6GB显存我将批量大小设为4以避免内存溢出。如果遇到CUDA内存不足错误可以尝试减小批量大小或使用梯度累积技术。4. 单GPU训练优化4.1 并行训练代码改造原始DDRNet代码默认使用多GPU分布式训练我们需要修改为单GPU模式。主要改动集中在三个文件train.py中# 注释掉分布式初始化代码 # torch.cuda.set_device(args.local_rank) # torch.distributed.init_process_group(backendnccl) # 修改为单GPU模式 model torch.nn.DataParallel(model).cuda()eval.py中同样需要移除分布式相关代码并确保模型加载到正确设备device torch.device(cuda:0 if torch.cuda.is_available() else cpu) model model.to(device)在ddrnet23_slim.py中修改DualResNet_imagenet函数的num_classes参数默认值为4。4.2 训练过程监控启动训练后我推荐使用TensorBoard来监控训练过程tensorboard --logdir./output训练过程中有几个关键指标需要特别关注训练损失是否稳定下降验证集mIoU是否持续提升GPU显存使用率是否合理如果发现验证指标波动很大可以尝试减小学习率或增加权重衰减。我在实验中发现初始学习率0.01配合每30个epoch衰减0.1倍的效果不错。5. 模型测试与结果分析5.1 测试集评估训练完成后最佳模型会保存在output目录下。使用以下命令进行评估python eval.py --cfg experiments/cityscapes/ddrnet23_slim.yaml TEST.MODEL_FILE output/best.pth评估指标主要包括mIoU平均交并比衡量整体分割精度各类别的IoU分析模型在特定类别上的表现推理速度对于实际应用很重要我的实验结果显示在385张训练图像上达到了0.51的mIoU其中健康细胞的分割精度最高IoU0.67而细胞边缘的分割最具挑战性IoU0.39。5.2 结果可视化为了直观理解模型表现我修改了eval.py以保存预测结果# 修改testval函数中的save_pred调用 save_pred(pred, sv_path, output_dir) # 移除多余的img参数预测结果会保存在test_results目录下。我建议将原始图像、真实标签和预测结果并排显示以便对比分析。下面是一个简单的可视化脚本import matplotlib.pyplot as plt def visualize_comparison(img_path, label_path, pred_path): fig, axes plt.subplots(1, 3, figsize(15,5)) img Image.open(img_path) axes[0].imshow(img) axes[0].set_title(Original) label Image.open(label_path) axes[1].imshow(label, cmapjet, vmin0, vmax3) axes[1].set_title(Ground Truth) pred Image.open(pred_path) axes[2].imshow(pred, cmapjet, vmin0, vmax3) axes[2].set_title(Prediction) plt.show()从可视化结果可以看出模型能够较好地识别健康细胞和受损细胞的主要区域但在细胞边缘等细节部位仍有改进空间。这种分析帮助我们确定下一步的优化方向比如增加边缘相关的数据增强或调整损失函数。