「🍔自定义训练模板🍔」基于文档阴影消除网盘赛的示例

在使用Paddle写项目的时候,相信你也有和我一样的困惑:

高级API的封装太好,需要定制一些函数功能的时候不好添加;低级的API功能又很单一,要实现很多功能需要额外写很多代码。

如果能有一个模板,本身就具有比较完善的功能,只需要修改一部分代码就能快速实现自己的想法就好了。

基于这个想法,我完成了一套训练模型的模板,具有定制输出模型中断后继续训练保存最优模型等功能。

大家可以基于这个模板,快速修改并实现自己的想法。

📖 0 项目背景

生活中在使用手机进行文档扫描时,由于角度原因,难免会在照片中留下举手拍摄时遗留的恼人阴影。为了帮助人们解决这样的问题,减少阴影带来的干扰,选手需要通过深度学习技术训练模型,对给定的真实场景下采集得到的带有阴影的图片进行处理,还原图片原本的样子,并最终输出处理后的结果图片。
有阴影图片无阴影图片

🥦 1 数据介绍

  • 本次比赛最新发布的数据集共包含训练集、A榜测试集、B榜测试集三个部分,其中,训练集共1410个样本(图片编号非连续),A榜测试集共300个样本(图片编号连续),B榜测试集共397个样本;

  • images为带阴影的源图像数据,gts为无阴影的真值数据;(测试数据集的GT不开放)

  • images与gts中的图片根据图片名称一一对应。

🌰 2 模板已实现功能

💡 1 :每个epoch输出定制信息,使用tqdm进度条实时查看每个epoch运行时间(修正windows终端或异常中断tqdm出现的混乱)

💡 2 :可以直接定义并修改损失函数和模型,并给出示例

💡 3 :可以选择传入模型继续训练或从头训练

💡 4 :在训练完成后,以csv形式保存log文件

💡 5 :自定义评价指标,并根据评价指标结果自动保存最优模型

💡 6 :完成数据增强,模型训练,测试,推理全流程代码

💡 7 :实现输入图像的分块,能有效提升图像类任务精度


  • 参考项目:牛尾扫暗影,虎头开盲盒。三卷网盘赛,榜评0.59168

⚙️ 3 代码实现及讲解

# 解压数据集
!unzip  -o data/data125945/shadowRemovalOfDoc.zip!unzip delight_testA_dataset.zip -d data/ >>/dev/null
!unzip delight_train_dataset.zip -d data/ >>/dev/null
# 安装需要的库函数
!pip install scikit_image==0.15.0

⚔️ 3.1 图像分块


  • 该部分代码用于将图像分割成小块后保存起来,包括翻转,旋转等七种不同组合的数据增强方法。

prepare_data( patch_size=256, stride=200, aug_times=1)

  • patch_size:切分的正方形块的大小

  • stride:切分步长,每隔切分步长进行切块

  • aug_times:增强次数,每个图块生成几张增强图像

CODE 4 第32行 scales = [1] # 对数据进行随机放缩

  • 该参数是一个List,用于对图像进行缩放。

[1,1.2] 表示原图和将图像扩大1.2倍后进行切分,这样增加训练数据量为 [1] 的两倍


# 定义离线数据增强方法
def data_augmentation(image,label, mode):out = np.transpose(image, (1,2,0))out_label = np.transpose(label, (1,2,0))if mode == 0:# originalout = outout_label = out_labelelif mode == 1:# flip up and downout = np.flipud(out)out_label = np.flipud(out_label)elif mode == 2:# rotate counterwise 90 degreeout = np.rot90(out)out_label = np.rot90(out_label)elif mode == 3:# rotate 90 degree and flip up and downout = np.rot90(out)out = np.flipud(out)out_label = np.rot90(out_label)out_label = np.flipud(out_label)elif mode == 4:# rotate 180 degreeout = np.rot90(out, k=2)out_label = np.rot90(out_label, k=2)elif mode == 5:# rotate 180 degree and flipout = np.rot90(out, k=2)out = np.flipud(out)out_label = np.rot90(out_label, k=2)out_label = np.flipud(out_label)elif mode == 6:# rotate 270 degreeout = np.rot90(out, k=3)out_label = np.rot90(out_label, k=3)elif mode == 7:# rotate 270 degree and flipout = np.rot90(out, k=3)out = np.flipud(out)out_label = np.rot90(out_label, k=3)out_label = np.flipud(out_label)return  out,out_label
## 制作分块数据集
import cv2
import numpy as np
import math
import glob 
import osdef Im2Patch(img, win, stride=1):k = 0endc = img.shape[0]endw = img.shape[1]endh = img.shape[2]patch = img[:, 0:endw-win+0+1:stride, 0:endh-win+0+1:stride]TotalPatNum = patch.shape[1] * patch.shape[2]Y = np.zeros([endc, win*win,TotalPatNum], np.float32)for i in range(win):for j in range(win):patch = img[:,i:endw-win+i+1:stride,j:endh-win+j+1:stride]Y[:,k,:] = np.array(patch[:]).reshape(endc, TotalPatNum)k = k + 1return Y.reshape([endc, win, win, TotalPatNum])def prepare_data(patch_size, stride, aug_times=1):'''该函数用于将图像切成方块,并进行数据增强patch_size: 图像块的大小,本项目200*200stride: 步长,每个图像块的间隔aug_times: 数据增强次数,默认从八种增强方式中选择一种'''# trainprint('process training data')scales = [1] # 对数据进行随机放缩files = glob.glob(os.path.join('data/delight_train_dataset/images', '*.jpg'))files.sort()img_folder = 'work/img_patch'if  not os.path.exists(img_folder):os.mkdir(img_folder)label_folder = 'work/label_patch'if  not os.path.exists(label_folder):os.mkdir(label_folder)train_num = 0for i in range(len(files)):img = cv2.imread(files[i])label = cv2.imread(files[i].replace('images','gts'))h, w, c = img.shapefor k in range(len(scales)):Img = cv2.resize(img, (int(h*scales[k]), int(w*scales[k])), interpolation=cv2.INTER_CUBIC)Label = cv2.resize(label, (int(h*scales[k]), int(w*scales[k])), interpolation=cv2.INTER_CUBIC)Img = np.transpose(Img, (2,0,1))Label = np.transpose(Label, (2,0,1))Img = np.float32(np.clip(Img,0,255))Label = np.float32(np.clip(Label,0,255))patches = Im2Patch(Img, win=patch_size, stride=stride)label_patches = Im2Patch(Label, win=patch_size, stride=stride)print("file: %s scale %.1f # samples: %d" % (files[i], scales[k], patches.shape[3]*aug_times))for n in range(patches.shape[3]):data = patches[:,:,:,n].copy()label_data = label_patches[:,:,:,n].copy()for m in range(aug_times):data_aug,label_aug = data_augmentation(data,label_data, np.random.randint(1,8))label_name = os.path.join(label_folder,str(train_num)+"_aug_%d" % (m+1)+'.jpg')image_name = os.path.join(img_folder,str(train_num)+"_aug_%d" % (m+1)+'.jpg')cv2.imwrite(image_name, data_aug,[int( cv2.IMWRITE_JPEG_QUALITY), 100])cv2.imwrite(label_name, label_aug,[int( cv2.IMWRITE_JPEG_QUALITY), 100])train_num += 1print('training set, # samples %d\n' % train_num)## 生成数据prepare_data( patch_size=256, stride=200, aug_times=1) 

⚔️ 3.2 重写数据读取类


  • 该部分代码使用了paddle.vision.transforms内置的图像增强方法


# 重写数据读取类
import paddle
import paddle.vision.transforms as T
import numpy as np
import glob
import cv2# 重写数据读取类
class DEshadowDataset(paddle.io.Dataset):def __init__(self,mode = 'train',is_transforms = False):label_path_ ='work/label_patch/*.jpg'jpg_path_ ='work/img_patch/*.jpg'self.label_list_ = glob.glob(label_path_)        self.jpg_list_ = glob.glob(jpg_path_)self.is_transforms = is_transformsself.mode = modescale_point = 0.95self.transforms =T.Compose([T.Normalize(data_format='HWC',),T.HueTransform(0.4),T.SaturationTransform(0.4),T.HueTransform(0.4),T.ToTensor(),])# 选择前95%训练,后5%验证if self.mode == 'train':self.jpg_list_ = self.jpg_list_[:int(scale_point*len(self.jpg_list_))]self.label_list_ = self.label_list_[:int(scale_point*len(self.label_list_))]else:self.jpg_list_ = self.jpg_list_[int(scale_point*len(self.jpg_list_)):]self.label_list_ = self.label_list_[int(scale_point*len(self.label_list_)):]def __getitem__(self, index):jpg_ = self.jpg_list_[index]label_ =  self.label_list_[index]data = cv2.imread(jpg_) # 读取和代码处于同一目录下的 lena.png # 转为 0-1mask = cv2.imread(label_)data = cv2.cvtColor(data, cv2.COLOR_BGR2RGB) # BGR 2 RGBmask = cv2.cvtColor(mask, cv2.COLOR_BGR2RGB) # BGR 2 RGBdata = np.uint8(data)mask = np.uint8(mask)if self.is_transforms:data = self.transforms(data)data = data/255mask = T.functional.to_tensor(mask) return  data,mask  def __len__(self):return len(self.jpg_list_)  
# 数据读取及增强可视化
import paddle.vision.transforms as T
import matplotlib.pyplot as plt
from PIL import Imagedataset = DEshadowDataset(mode='train',is_transforms = False )
print('=============train dataset=============')
img_,mask_ = dataset[3] # mask 始终大于 imgimg = Image.fromarray(img_)
mask = Image.fromarray(mask_)#当要保存的图片为灰度图像时,灰度图像的 numpy 尺度是 [1, h, w]。需要将 [1, h, w] 改变为 [h, w]plt.figure(figsize=(12, 6))
plt.subplot(1,2,1),plt.xticks([]),plt.yticks([]),plt.imshow(img)
plt.subplot(1,2,2),plt.xticks([]),plt.yticks([]),plt.imshow(mask)
plt.show()

⚔️ 3.3 重写模型


  • 该部分代码定义KIUnet 和UNet_3Plus作为示例。

网络介绍详情请点击链接查看。

# 定义KIUnet 
import paddle
import paddle.nn as nn
import paddle.nn.functional as F
from paddle.nn import initializerdef init_weights(init_type='kaiming'):if init_type == 'normal':return paddle.framework.ParamAttr(initializer=paddle.nn.initializer.Normal())elif init_type == 'xavier':return paddle.framework.ParamAttr(initializer=paddle.nn.initializer.XavierNormal())elif init_type == 'kaiming':return paddle.framework.ParamAttr(initializer=paddle.nn.initializer.KaimingNormal)else:raise NotImplementedError('initialization method [%s] is not implemented' % init_type)class kiunet(nn.Layer):def __init__(self ,in_channels = 3, n_classes =3):super(kiunet,self).__init__()self.in_channels = in_channelsself.n_class = n_classesself.encoder1 = nn.Conv2D(self.in_channels, 16, 3, stride=1, padding=1)  # First Layer GrayScale Image , change to input channels to 3 in case of RGB self.en1_bn = nn.BatchNorm(16)self.encoder2=   nn.Conv2D(16, 32, 3, stride=1, padding=1)  self.en2_bn = nn.BatchNorm(32)self.encoder3=   nn.Conv2D(32, 64, 3, stride=1, padding=1)self.en3_bn = nn.BatchNorm(64)self.decoder1 =   nn.Conv2D(64, 32, 3, stride=1, padding=1)   self.de1_bn = nn.BatchNorm(32)self.decoder2 =   nn.Conv2D(32,16, 3, stride=1, padding=1)self.de2_bn = nn.BatchNorm(16)self.decoder3 =   nn.Conv2D(16, 8, 3, stride=1, padding=1)self.de3_bn = nn.BatchNorm(8)self.decoderf1 =   nn.Conv2D(64, 32, 3, stride=1, padding=1)self.def1_bn = nn.BatchNorm(32)self.decoderf2=   nn.Conv2D(32, 16, 3, stride=1, padding=1)self.def2_bn = nn.BatchNorm(16)self.decoderf3 =   nn.Conv2D(16, 8, 3, stride=1, padding=1)self.def3_bn = nn.BatchNorm(8)self.encoderf1 =   nn.Conv2D(in_channels, 16, 3, stride=1, padding=1)  # First Layer GrayScale Image , change to input channels to 3 in case of RGB self.enf1_bn = nn.BatchNorm(16)self.encoderf2=   nn.Conv2D(16, 32, 3, stride=1, padding=1)self.enf2_bn = nn.BatchNorm(32)self.encoderf3 =   nn.Conv2D(32, 64, 3, stride=1, padding=1)self.enf3_bn = nn.BatchNorm(64)self.intere1_1 = nn.Conv2D(16,16,3, stride=1, padding=1)self.inte1_1bn = nn.BatchNorm(16)self.intere2_1 = nn.Conv2D(32,32,3, stride=1, padding=1)self.inte2_1bn = nn.BatchNorm(32)self.intere3_1 = nn.Conv2D(64,64,3, stride=1, padding=1)self.inte3_1bn = nn.BatchNorm(64)self.intere1_2 = nn.Conv2D(16,16,3, stride=1, padding=1)self.inte1_2bn = nn.BatchNorm(16)self.intere2_2 = nn.Conv2D(32,32,3, stride=1, padding=1)self.inte2_2bn = nn.BatchNorm(32)self.intere3_2 = nn.Conv2D(64,64,3, stride=1, padding=1)self.inte3_2bn = nn.BatchNorm(64)self.interd1_1 = nn.Conv2D(32,32,3, stride=1, padding=1)self.intd1_1bn = nn.BatchNorm(32)self.interd2_1 = nn.Conv2D(16,16,3, stride=1, padding=1)self.intd2_1bn = nn.BatchNorm(16)self.interd3_1 = nn.Conv2D(64,64,3, stride=1, padding=1)self.intd3_1bn = nn.BatchNorm(64)self.interd1_2 = nn.Conv2D(32,32,3, stride=1, padding=1)self.intd1_2bn = nn.BatchNorm(32)self.interd2_2 = nn.Conv2D(16,16,3, stride=1, padding=1)self.intd2_2bn = nn.BatchNorm(16)self.interd3_2 = nn.Conv2D(64,64,3, stride=1, padding=1)self.intd3_2bn = nn.BatchNorm(64)self.final = nn.Sequential(nn.Conv2D(8,self.n_class,1,stride=1,padding=0),nn.AdaptiveAvgPool2D(output_size=1))# initialise weightsfor m in self.sublayers ():if isinstance(m, nn.Conv2D):m.weight_attr = init_weights(init_type='kaiming')m.bias_attr = init_weights(init_type='kaiming')elif isinstance(m, nn.BatchNorm):m.param_attr =init_weights(init_type='kaiming')m.bias_attr = init_weights(init_type='kaiming') def forward(self, x):# input: c * h * w -> 16 * h/2 * w/2out = F.relu(self.en1_bn(F.max_pool2d(self.encoder1(x),2,2)))  #U-Net branch# c * h * w -> 16 * 2h * 2wout1 = F.relu(self.enf1_bn(F.interpolate(self.encoderf1(x),scale_factor=(2,2),mode ='bicubic'))) #Ki-Net branch# 16 * h/2 * w/2tmp = out# 16 * 2h * 2w -> 16 * h/2 * w/2out = paddle.add(out,F.interpolate(F.relu(self.inte1_1bn(self.intere1_1(out1))),scale_factor=(0.25,0.25),mode ='bicubic')) #CRFB# 16 * h/2 * w/2 -> 16 * 2h * 2wout1 = paddle.add(out1,F.interpolate(F.relu(self.inte1_2bn(self.intere1_2(tmp))),scale_factor=(4,4),mode ='bicubic')) #CRFB# 16 * h/2 * w/2u1 = out  #skip conn# 16 * 2h * 2wo1 = out1  #skip conn# 16 * h/2 * w/2 -> 32 * h/4 * w/4out = F.relu(self.en2_bn(F.max_pool2d(self.encoder2(out),2,2)))# 16 * 2h * 2w -> 32 * 4h * 4wout1 = F.relu(self.enf2_bn(F.interpolate(self.encoderf2(out1),scale_factor=(2,2),mode ='bicubic')))#  32 * h/4 * w/4tmp = out# 32 * 4h * 4w -> 32 * h/4 *w/4out = paddle.add(out,F.interpolate(F.relu(self.inte2_1bn(self.intere2_1(out1))),scale_factor=(0.0625,0.0625),mode ='bicubic'))# 32 * h/4 * w/4 -> 32 *4h *4wout1 = paddle.add(out1,F.interpolate(F.relu(self.inte2_2bn(self.intere2_2(tmp))),scale_factor=(16,16),mode ='bicubic'))#  32 * h/4 *w/4u2 = out#  32 *4h *4wo2 = out1# 32 * h/4 *w/4 -> 64 * h/8 *w/8out = F.relu(self.en3_bn(F.max_pool2d(self.encoder3(out),2,2)))# 32 *4h *4w -> 64 * 8h *8wout1 = F.relu(self.enf3_bn(F.interpolate(self.encoderf3(out1),scale_factor=(2,2),mode ='bicubic')))#  64 * h/8 *w/8 tmp = out#  64 * 8h *8w -> 64 * h/8 * w/8out = paddle.add(out,F.interpolate(F.relu(self.inte3_1bn(self.intere3_1(out1))),scale_factor=(0.015625,0.015625),mode ='bicubic'))#  64 * h/8 *w/8 -> 64 * 8h * 8wout1 = paddle.add(out1,F.interpolate(F.relu(self.inte3_2bn(self.intere3_2(tmp))),scale_factor=(64,64),mode ='bicubic'))### End of encoder block### Start Decoder# 64 * h/8 * w/8 -> 32 * h/4 * w/4 out = F.relu(self.de1_bn(F.interpolate(self.decoder1(out),scale_factor=(2,2),mode ='bicubic')))  #U-NET# 64 * 8h * 8w -> 32 * 4h * 4w out1 = F.relu(self.def1_bn(F.max_pool2d(self.decoderf1(out1),2,2))) #Ki-NET# 32 * h/4 * w/4 tmp = out# 32 * 4h * 4w  -> 32 * h/4 * w/4 out = paddle.add(out,F.interpolate(F.relu(self.intd1_1bn(self.interd1_1(out1))),scale_factor=(0.0625,0.0625),mode ='bicubic'))# 32 * h/4 * w/4  -> 32 * 4h * 4w out1 = paddle.add(out1,F.interpolate(F.relu(self.intd1_2bn(self.interd1_2(tmp))),scale_factor=(16,16),mode ='bicubic'))# 32 * h/4 * w/4 out = paddle.add(out,u2)  #skip conn# 32 * 4h * 4w out1 = paddle.add(out1,o2)  #skip conn# 32 * h/4 * w/4 -> 16 * h/2 * w/2 out = F.relu(self.de2_bn(F.interpolate(self.decoder2(out),scale_factor=(2,2),mode ='bicubic')))# 32 * 4h * 4w  -> 16 * 2h * 2wout1 = F.relu(self.def2_bn(F.max_pool2d(self.decoderf2(out1),2,2)))# 16 * h/2 * w/2 tmp = out# 16 * 2h * 2w -> 16 * h/2 * w/2out = paddle.add(out,F.interpolate(F.relu(self.intd2_1bn(self.interd2_1(out1))),scale_factor=(0.25,0.25),mode ='bicubic'))# 16 * h/2 * w/2 -> 16 * 2h * 2wout1 = paddle.add(out1,F.interpolate(F.relu(self.intd2_2bn(self.interd2_2(tmp))),scale_factor=(4,4),mode ='bicubic'))# 16 * h/2 * w/2out = paddle.add(out,u1)# 16 * 2h * 2wout1 = paddle.add(out1,o1)# 16 * h/2 * w/2 -> 8 * h * wout = F.relu(self.de3_bn(F.interpolate(self.decoder3(out),scale_factor=(2,2),mode ='bicubic')))# 16 * 2h * 2w -> 8 * h * wout1 = F.relu(self.def3_bn(F.max_pool2d(self.decoderf3(out1),2,2)))# 8 * h * wout = paddle.add(out,out1) # fusion of both branches# 最后一层用sigmoid激活函数out = F.sigmoid(self.final(out))  #1*1 convreturn out
import paddle
import paddle.nn as nn
import paddle.nn.functional as F
from paddle.nn import initializerdef init_weights(init_type='kaiming'):if init_type == 'normal':return paddle.framework.ParamAttr(initializer=paddle.nn.initializer.Normal())elif init_type == 'xavier':return paddle.framework.ParamAttr(initializer=paddle.nn.initializer.XavierNormal())elif init_type == 'kaiming':return paddle.framework.ParamAttr(initializer=paddle.nn.initializer.KaimingNormal)else:raise NotImplementedError('initialization method [%s] is not implemented' % init_type)class unetConv2(nn.Layer):def __init__(self, in_size, out_size, is_batchnorm, n=2, ks=3, stride=1, padding=1):super(unetConv2, self).__init__()self.n = nself.ks = ksself.stride = strideself.padding = paddings = stridep = paddingif is_batchnorm:for i in range(1, n + 1):conv = nn.Sequential(nn.Conv2D(in_size, out_size, ks, s, p),nn.BatchNorm(out_size),nn.ReLU(), )setattr(self, 'conv%d' % i, conv)in_size = out_sizeelse:for i in range(1, n + 1):conv = nn.Sequential(nn.Conv2D(in_size, out_size, ks, s, p),nn.ReLU(), )setattr(self, 'conv%d' % i, conv)in_size = out_size# initialise the blocksfor m in self.children():m.weight_attr=init_weights(init_type='kaiming')m.bias_attr=init_weights(init_type='kaiming')def forward(self, inputs):x = inputsfor i in range(1, self.n + 1):conv = getattr(self, 'conv%d' % i)x = conv(x)return x'''UNet 3+
'''
class UNet_3Plus(nn.Layer):def __init__(self, in_channels=3, n_classes=1, is_deconv=True, is_batchnorm=True, end_sigmoid=True):super(UNet_3Plus, self).__init__()self.is_deconv = is_deconvself.in_channels = in_channelsself.is_batchnorm = is_batchnormself.end_sigmoid = end_sigmoidfilters = [16, 32, 64, 128, 256]## -------------Encoder--------------self.conv1 = unetConv2(self.in_channels, filters[0], self.is_batchnorm)self.maxpool1 = nn.MaxPool2D(kernel_size=2)self.conv2 = unetConv2(filters[0], filters[1], self.is_batchnorm)self.maxpool2 = nn.MaxPool2D(kernel_size=2)self.conv3 = unetConv2(filters[1], filters[2], self.is_batchnorm)self.maxpool3 = nn.MaxPool2D(kernel_size=2)self.conv4 = unetConv2(filters[2], filters[3], self.is_batchnorm)self.maxpool4 = nn.MaxPool2D(kernel_size=2)self.conv5 = unetConv2(filters[3], filters[4], self.is_batchnorm)## -------------Decoder--------------self.CatChannels = filters[0]self.CatBlocks = 5self.UpChannels = self.CatChannels * self.CatBlocks'''stage 4d'''# h1->320*320, hd4->40*40, Pooling 8 timesself.h1_PT_hd4 = nn.MaxPool2D(8, 8, ceil_mode=True)self.h1_PT_hd4_conv = nn.Conv2D(filters[0], self.CatChannels, 3, padding=1)self.h1_PT_hd4_bn = nn.BatchNorm(self.CatChannels)self.h1_PT_hd4_relu = nn.ReLU()# h2->160*160, hd4->40*40, Pooling 4 timesself.h2_PT_hd4 = nn.MaxPool2D(4, 4, ceil_mode=True)self.h2_PT_hd4_conv = nn.Conv2D(filters[1], self.CatChannels, 3, padding=1)self.h2_PT_hd4_bn = nn.BatchNorm(self.CatChannels)self.h2_PT_hd4_relu = nn.ReLU()# h3->80*80, hd4->40*40, Pooling 2 timesself.h3_PT_hd4 = nn.MaxPool2D(2, 2, ceil_mode=True)self.h3_PT_hd4_conv = nn.Conv2D(filters[2], self.CatChannels, 3, padding=1)self.h3_PT_hd4_bn = nn.BatchNorm(self.CatChannels)self.h3_PT_hd4_relu = nn.ReLU()# h4->40*40, hd4->40*40, Concatenationself.h4_Cat_hd4_conv = nn.Conv2D(filters[3], self.CatChannels, 3, padding=1)self.h4_Cat_hd4_bn = nn.BatchNorm(self.CatChannels)self.h4_Cat_hd4_relu = nn.ReLU()# hd5->20*20, hd4->40*40, Upsample 2 timesself.hd5_UT_hd4 = nn.Upsample(scale_factor=2, mode='bilinear')  # 14*14self.hd5_UT_hd4_conv = nn.Conv2D(filters[4], self.CatChannels, 3, padding=1)self.hd5_UT_hd4_bn = nn.BatchNorm(self.CatChannels)self.hd5_UT_hd4_relu = nn.ReLU()# fusion(h1_PT_hd4, h2_PT_hd4, h3_PT_hd4, h4_Cat_hd4, hd5_UT_hd4)self.conv4d_1 = nn.Conv2D(self.UpChannels, self.UpChannels, 3, padding=1)  # 16self.bn4d_1 = nn.BatchNorm(self.UpChannels)self.relu4d_1 = nn.ReLU()'''stage 3d'''# h1->320*320, hd3->80*80, Pooling 4 timesself.h1_PT_hd3 = nn.MaxPool2D(4, 4, ceil_mode=True)self.h1_PT_hd3_conv = nn.Conv2D(filters[0], self.CatChannels, 3, padding=1)self.h1_PT_hd3_bn = nn.BatchNorm(self.CatChannels)self.h1_PT_hd3_relu = nn.ReLU()# h2->160*160, hd3->80*80, Pooling 2 timesself.h2_PT_hd3 = nn.MaxPool2D(2, 2, ceil_mode=True)self.h2_PT_hd3_conv = nn.Conv2D(filters[1], self.CatChannels, 3, padding=1)self.h2_PT_hd3_bn = nn.BatchNorm(self.CatChannels)self.h2_PT_hd3_relu = nn.ReLU()# h3->80*80, hd3->80*80, Concatenationself.h3_Cat_hd3_conv = nn.Conv2D(filters[2], self.CatChannels, 3, padding=1)self.h3_Cat_hd3_bn = nn.BatchNorm(self.CatChannels)self.h3_Cat_hd3_relu = nn.ReLU()# hd4->40*40, hd4->80*80, Upsample 2 timesself.hd4_UT_hd3 = nn.Upsample(scale_factor=2, mode='bilinear')  # 14*14self.hd4_UT_hd3_conv = nn.Conv2D(self.UpChannels, self.CatChannels, 3, padding=1)self.hd4_UT_hd3_bn = nn.BatchNorm(self.CatChannels)self.hd4_UT_hd3_relu = nn.ReLU()# hd5->20*20, hd4->80*80, Upsample 4 timesself.hd5_UT_hd3 = nn.Upsample(scale_factor=4, mode='bilinear')  # 14*14self.hd5_UT_hd3_conv = nn.Conv2D(filters[4], self.CatChannels, 3, padding=1)self.hd5_UT_hd3_bn = nn.BatchNorm(self.CatChannels)self.hd5_UT_hd3_relu = nn.ReLU()# fusion(h1_PT_hd3, h2_PT_hd3, h3_Cat_hd3, hd4_UT_hd3, hd5_UT_hd3)self.conv3d_1 = nn.Conv2D(self.UpChannels, self.UpChannels, 3, padding=1)  # 16self.bn3d_1 = nn.BatchNorm(self.UpChannels)self.relu3d_1 = nn.ReLU()'''stage 2d '''# h1->320*320, hd2->160*160, Pooling 2 timesself.h1_PT_hd2 = nn.MaxPool2D(2, 2, ceil_mode=True)self.h1_PT_hd2_conv = nn.Conv2D(filters[0], self.CatChannels, 3, padding=1)self.h1_PT_hd2_bn = nn.BatchNorm(self.CatChannels)self.h1_PT_hd2_relu = nn.ReLU()# h2->160*160, hd2->160*160, Concatenationself.h2_Cat_hd2_conv = nn.Conv2D(filters[1], self.CatChannels, 3, padding=1)self.h2_Cat_hd2_bn = nn.BatchNorm(self.CatChannels)self.h2_Cat_hd2_relu = nn.ReLU()# hd3->80*80, hd2->160*160, Upsample 2 timesself.hd3_UT_hd2 = nn.Upsample(scale_factor=2, mode='bilinear')  # 14*14self.hd3_UT_hd2_conv = nn.Conv2D(self.UpChannels, self.CatChannels, 3, padding=1)self.hd3_UT_hd2_bn = nn.BatchNorm(self.CatChannels)self.hd3_UT_hd2_relu = nn.ReLU()# hd4->40*40, hd2->160*160, Upsample 4 timesself.hd4_UT_hd2 = nn.Upsample(scale_factor=4, mode='bilinear')  # 14*14self.hd4_UT_hd2_conv = nn.Conv2D(self.UpChannels, self.CatChannels, 3, padding=1)self.hd4_UT_hd2_bn = nn.BatchNorm(self.CatChannels)self.hd4_UT_hd2_relu = nn.ReLU()# hd5->20*20, hd2->160*160, Upsample 8 timesself.hd5_UT_hd2 = nn.Upsample(scale_factor=8, mode='bilinear')  # 14*14self.hd5_UT_hd2_conv = nn.Conv2D(filters[4], self.CatChannels, 3, padding=1)self.hd5_UT_hd2_bn = nn.BatchNorm(self.CatChannels)self.hd5_UT_hd2_relu = nn.ReLU()# fusion(h1_PT_hd2, h2_Cat_hd2, hd3_UT_hd2, hd4_UT_hd2, hd5_UT_hd2)self.Conv2D_1 = nn.Conv2D(self.UpChannels, self.UpChannels, 3, padding=1)  # 16self.bn2d_1 = nn.BatchNorm(self.UpChannels)self.relu2d_1 = nn.ReLU()'''stage 1d'''# h1->320*320, hd1->320*320, Concatenationself.h1_Cat_hd1_conv = nn.Conv2D(filters[0], self.CatChannels, 3, padding=1)self.h1_Cat_hd1_bn = nn.BatchNorm(self.CatChannels)self.h1_Cat_hd1_relu = nn.ReLU()# hd2->160*160, hd1->320*320, Upsample 2 timesself.hd2_UT_hd1 = nn.Upsample(scale_factor=2, mode='bilinear')  # 14*14self.hd2_UT_hd1_conv = nn.Conv2D(self.UpChannels, self.CatChannels, 3, padding=1)self.hd2_UT_hd1_bn = nn.BatchNorm(self.CatChannels)self.hd2_UT_hd1_relu = nn.ReLU()# hd3->80*80, hd1->320*320, Upsample 4 timesself.hd3_UT_hd1 = nn.Upsample(scale_factor=4, mode='bilinear')  # 14*14self.hd3_UT_hd1_conv = nn.Conv2D(self.UpChannels, self.CatChannels, 3, padding=1)self.hd3_UT_hd1_bn = nn.BatchNorm(self.CatChannels)self.hd3_UT_hd1_relu = nn.ReLU()# hd4->40*40, hd1->320*320, Upsample 8 timesself.hd4_UT_hd1 = nn.Upsample(scale_factor=8, mode='bilinear')  # 14*14self.hd4_UT_hd1_conv = nn.Conv2D(self.UpChannels, self.CatChannels, 3, padding=1)self.hd4_UT_hd1_bn = nn.BatchNorm(self.CatChannels)self.hd4_UT_hd1_relu = nn.ReLU()# hd5->20*20, hd1->320*320, Upsample 16 timesself.hd5_UT_hd1 = nn.Upsample(scale_factor=16, mode='bilinear')  # 14*14self.hd5_UT_hd1_conv = nn.Conv2D(filters[4], self.CatChannels, 3, padding=1)self.hd5_UT_hd1_bn = nn.BatchNorm(self.CatChannels)self.hd5_UT_hd1_relu = nn.ReLU()# fusion(h1_Cat_hd1, hd2_UT_hd1, hd3_UT_hd1, hd4_UT_hd1, hd5_UT_hd1)self.conv1d_1 = nn.Conv2D(self.UpChannels, self.UpChannels, 3, padding=1)  # 16self.bn1d_1 = nn.BatchNorm(self.UpChannels)self.relu1d_1 = nn.ReLU()# outputself.outconv1 = nn.Conv2D(self.UpChannels, n_classes, 3, padding=1)# initialise weightsfor m in self.sublayers ():if isinstance(m, nn.Conv2D):m.weight_attr = init_weights(init_type='kaiming')m.bias_attr = init_weights(init_type='kaiming')elif isinstance(m, nn.BatchNorm):m.param_attr =init_weights(init_type='kaiming')m.bias_attr = init_weights(init_type='kaiming')def forward(self, inputs):## -------------Encoder-------------h1 = self.conv1(inputs)  # h1->320*320*64h2 = self.maxpool1(h1)h2 = self.conv2(h2)  # h2->160*160*128h3 = self.maxpool2(h2)h3 = self.conv3(h3)  # h3->80*80*256h4 = self.maxpool3(h3)h4 = self.conv4(h4)  # h4->40*40*512h5 = self.maxpool4(h4)hd5 = self.conv5(h5)  # h5->20*20*1024## -------------Decoder-------------h1_PT_hd4 = self.h1_PT_hd4_relu(self.h1_PT_hd4_bn(self.h1_PT_hd4_conv(self.h1_PT_hd4(h1))))h2_PT_hd4 = self.h2_PT_hd4_relu(self.h2_PT_hd4_bn(self.h2_PT_hd4_conv(self.h2_PT_hd4(h2))))h3_PT_hd4 = self.h3_PT_hd4_relu(self.h3_PT_hd4_bn(self.h3_PT_hd4_conv(self.h3_PT_hd4(h3))))h4_Cat_hd4 = self.h4_Cat_hd4_relu(self.h4_Cat_hd4_bn(self.h4_Cat_hd4_conv(h4)))hd5_UT_hd4 = self.hd5_UT_hd4_relu(self.hd5_UT_hd4_bn(self.hd5_UT_hd4_conv(self.hd5_UT_hd4(hd5))))hd4 = self.relu4d_1(self.bn4d_1(self.conv4d_1(paddle.concat([h1_PT_hd4, h2_PT_hd4, h3_PT_hd4, h4_Cat_hd4, hd5_UT_hd4], 1)))) # hd4->40*40*UpChannelsh1_PT_hd3 = self.h1_PT_hd3_relu(self.h1_PT_hd3_bn(self.h1_PT_hd3_conv(self.h1_PT_hd3(h1))))h2_PT_hd3 = self.h2_PT_hd3_relu(self.h2_PT_hd3_bn(self.h2_PT_hd3_conv(self.h2_PT_hd3(h2))))h3_Cat_hd3 = self.h3_Cat_hd3_relu(self.h3_Cat_hd3_bn(self.h3_Cat_hd3_conv(h3)))hd4_UT_hd3 = self.hd4_UT_hd3_relu(self.hd4_UT_hd3_bn(self.hd4_UT_hd3_conv(self.hd4_UT_hd3(hd4))))hd5_UT_hd3 = self.hd5_UT_hd3_relu(self.hd5_UT_hd3_bn(self.hd5_UT_hd3_conv(self.hd5_UT_hd3(hd5))))hd3 = self.relu3d_1(self.bn3d_1(self.conv3d_1(paddle.concat([h1_PT_hd3, h2_PT_hd3, h3_Cat_hd3, hd4_UT_hd3, hd5_UT_hd3], 1)))) # hd3->80*80*UpChannelsh1_PT_hd2 = self.h1_PT_hd2_relu(self.h1_PT_hd2_bn(self.h1_PT_hd2_conv(self.h1_PT_hd2(h1))))h2_Cat_hd2 = self.h2_Cat_hd2_relu(self.h2_Cat_hd2_bn(self.h2_Cat_hd2_conv(h2)))hd3_UT_hd2 = self.hd3_UT_hd2_relu(self.hd3_UT_hd2_bn(self.hd3_UT_hd2_conv(self.hd3_UT_hd2(hd3))))hd4_UT_hd2 = self.hd4_UT_hd2_relu(self.hd4_UT_hd2_bn(self.hd4_UT_hd2_conv(self.hd4_UT_hd2(hd4))))hd5_UT_hd2 = self.hd5_UT_hd2_relu(self.hd5_UT_hd2_bn(self.hd5_UT_hd2_conv(self.hd5_UT_hd2(hd5))))hd2 = self.relu2d_1(self.bn2d_1(self.Conv2D_1(paddle.concat([h1_PT_hd2, h2_Cat_hd2, hd3_UT_hd2, hd4_UT_hd2, hd5_UT_hd2], 1)))) # hd2->160*160*UpChannelsh1_Cat_hd1 = self.h1_Cat_hd1_relu(self.h1_Cat_hd1_bn(self.h1_Cat_hd1_conv(h1)))hd2_UT_hd1 = self.hd2_UT_hd1_relu(self.hd2_UT_hd1_bn(self.hd2_UT_hd1_conv(self.hd2_UT_hd1(hd2))))hd3_UT_hd1 = self.hd3_UT_hd1_relu(self.hd3_UT_hd1_bn(self.hd3_UT_hd1_conv(self.hd3_UT_hd1(hd3))))hd4_UT_hd1 = self.hd4_UT_hd1_relu(self.hd4_UT_hd1_bn(self.hd4_UT_hd1_conv(self.hd4_UT_hd1(hd4))))hd5_UT_hd1 = self.hd5_UT_hd1_relu(self.hd5_UT_hd1_bn(self.hd5_UT_hd1_conv(self.hd5_UT_hd1(hd5))))hd1 = self.relu1d_1(self.bn1d_1(self.conv1d_1(paddle.concat([h1_Cat_hd1, hd2_UT_hd1, hd3_UT_hd1, hd4_UT_hd1, hd5_UT_hd1], 1)))) # hd1->320*320*UpChannelsd1 = self.outconv1(hd1)  # d1->320*320*n_classesif self.end_sigmoid:out = F.sigmoid(d1)else:out = d1return out
# 查看网络结构
KIunet = kiunet(in_channels = 3, n_classes =3)
Unet3p = UNet_3Plus( in_channels=3, n_classes=3)model = paddle.Model(Unet3p)
model.summary((2,3, 256, 256))

⚔️ 3.4 训练函数介绍

该部分介绍模板的具体使用:


  • 模型运行
参数self.is_Trainself.PATH
False进行推理从头训练
True进行训练读取模型继续训练

注意: self.PATH的True指输入模型路径,例如:当self.is_Train为False时, self.PATH为模型路径,此时不需要训练,直接进行推理生成结果。


  • 损失函数

在work目录下loss.py文件中实现了:

---- TVLoss

---- SSIMLoss

---- LossVGG19(感知损失)

可以根据自己的需求进行修改或添加


  • 最优模型

在Eval方法中定义了score变量,该变量记录验证集上的评价指标。

每个EPOCH会计算一次验证集上的score。

只有当获得更高的score时,才会删除原模型,记录新的最优模型。

注意: 需要自定义评价指标时,只需修改score的计算即可


  • 保存结果

函数会zi’dong在work目录下生成一系列目录:

  • log

    用于保存训练过程的结果

  • outputs

    用于以模型名称为文件夹保存推理的结果

  • saveModel

    用于记录最优的模型,名称为模型名+验证集score分数

注意: 需要自定义修改self.Modelname,用于区分不同模型的生成结果


## 主函数定义 Baseline 
# 基本假设 干净图像 + 噪声 = 受污染图像
# 阴影部分的像素值要低一些,因此,需要对受污染图像的像素值进行增强
# 受污染图像 + 阴影 = 干净图像
"""
@author: xupeng
"""from work.loss import *
from work.util import batch_psnr_ssim
from PIL import Image
import numpy as np
import pandas as pd
from tqdm import tqdm
import os
import matplotlib.pyplot as plt
import glob
from PIL import Image
from skimage.measure.simple_metrics import compare_psnr
import skimage
import paddle.vision.transforms as T
import cv2class Solver(object):def __init__(self):self.model = Noneself.lr = 1e-4 # 学习率self.epochs = 10  # 训练的代数self.batch_size = 4 # 训练批次数量self.optimizer = Noneself.scheduler = Noneself.saveSetDir = r'data/delight_testA_dataset/images/' # 测试集地址self.train_set = Noneself.eval_set = Noneself.train_loader = Noneself.eval_loader = Noneself.Modelname = 'Unet3p' # 使用的网络声明(生成的文件会以该声明为区分)self.evaTOP = 0self.is_Train = True # #是否对执行模型训练,当为False时,给出self.PATH,直接进行推理self.PATH = False #False# 用于记录最优模型的名称,需要预训练时,此项不为空def InitModeAndData(self):print("---------------trainInit:---------------")# API文档搜索:vision.transforms 查看数据增强方法is_transforms = Trueself.train_set =  DEshadowDataset(mode='train',is_transforms = is_transforms)self.eval_set  =  DEshadowDataset(mode='eval',is_transforms = is_transforms)# 使用paddle.io.DataLoader 定义DataLoader对象用于加载Python生成器产生的数据self.train_loader = paddle.io.DataLoader(self.train_set, batch_size=self.batch_size, shuffle=True)self.eval_loader = paddle.io.DataLoader(self.eval_set, batch_size=self.batch_size, shuffle=False)self.model = UNet_3Plus( in_channels=3, n_classes=3)if self.is_Train and self.PATH: # 已经有模型还要训练时,进行二次训练params = paddle.load(self.PATH)self.model.set_state_dict(params)self.evaTOP = float(self.PATH.split(self.Modelname)[-1].replace('.pdparams',''))self.scheduler = paddle.optimizer.lr.CosineAnnealingDecay(learning_rate=self.lr, T_max=30, verbose=False)self.optimizer = paddle.optimizer.Adam(parameters=self.model.parameters(), learning_rate=self.scheduler,beta1=0.5, beta2=0.999)# 创建文件夹 for item in ['log','outputs','saveModel']:make_folder = os.path.join('work',item)if  not os.path.exists(make_folder):os.mkdir(make_folder)def train(self,epoch):print("=======Epoch:{}/{}=======".format(epoch,self.epochs))self.model.train()TV_criterion = nTVLoss()    # 用于规范图像噪声ssim_criterion = SSIMLoss() # 用于对原图进行lossnet = LossVGG19() # 感知lossl1_loss = paddle.nn.L1Loss()Mse_loss = nn.MSELoss()try: # 使用这种写法(try-except 和 ascii=True),可以避免windows终端或异常中断tqdm出现的混乱with tqdm(enumerate(self.train_loader),total=len(self.train_loader), ascii=True) as tqdmData:mean_loss = []for idx, (img_train,mask_train) in tqdmData:tqdmData.set_description('train')img_train = paddle.to_tensor(img_train,dtype="float32")mask_train =  paddle.to_tensor(mask_train,dtype="float32")# MODELoutputs_noise = self.model(img_train) # mask > img  因此需要增加像素值mask_noise = mask_train - img_train # 真实图像与阴影的差值# 恢复出来的图像restore_trian =img_train + outputs_noise'''# 去均值tensor_c = paddle.to_tensor(np.array([123.6800, 116.7790, 103.9390]).astype(np.float32).reshape((1, 3, 1, 1)))# 感知损失# preceptual lossloss_fake_B = lossnet(restore_trian * 255 - tensor_c)loss_real_B = lossnet(mask_train * 255 - tensor_c)p0 = l1_loss(restore_trian * 255 - tensor_c, mask_train * 255 - tensor_c) * 2p1 = l1_loss(loss_fake_B['relu1'], loss_real_B['relu1']) / 2.6p2 = l1_loss(loss_fake_B['relu2'], loss_real_B['relu2']) / 4.8loss_p = p0 + p1 + p2loss = loss_p  + ssim_criterion(restore_trian,mask_train) + 10*l1_loss(outputs_noise,mask_noise)'''loss = l1_loss(restore_trian,mask_train)self.optimizer.clear_grad()loss.backward()self.optimizer.step()self.scheduler.step() ### 改优化器记得改这个mean_loss.append(loss.item())except KeyboardInterrupt:tqdmData.close()os._exit(0)tqdmData.close()# 清除中间变量,释放内存del loss,img_train,mask_train,outputs_noise,mask_noise,restore_trianpaddle.device.cuda.empty_cache()return {'Mean_trainLoss':np.mean(mean_loss)}def Eval(self,modelname):self.model.eval()temp_eval_psnr ,temp_eval_ssim= [],[]with paddle.no_grad():try:with tqdm(enumerate(self.eval_loader),total=len(self.eval_loader), ascii=True) as tqdmData:for idx, (img_eval,mask_eval) in tqdmData:tqdmData.set_description(' eval')img_eval=  paddle.to_tensor(img_eval,dtype="float32")mask_eval = paddle.to_tensor(mask_eval,dtype="float32")outputs_denoise = self.model(img_eval) # 模型输出outputs_denoise = img_eval + outputs_denoise # 恢复后的图像psnr_test,ssim_test = batch_psnr_ssim(outputs_denoise, mask_eval, 1.)temp_eval_psnr.append(psnr_test)temp_eval_ssim.append(ssim_test)except KeyboardInterrupt:tqdmData.close()os._exit(0)tqdmData.close()paddle.device.cuda.empty_cache()# 打印test psnr & ssim# print('eval_psnr:',np.mean(temp_eval_psnr),'eval_ssim:',np.mean(temp_eval_ssim))# 实现评价指标score = 0.05*np.mean(temp_eval_psnr)+0.5*np.mean(temp_eval_ssim)return {'eval_psnr':np.mean(temp_eval_psnr),'eval_ssim':np.mean(temp_eval_ssim),'SCORE':score}def saveModel(self,trainloss,modelname):trainLoss = trainloss['SCORE']if trainLoss < self.evaTOP and self.evaTOP!=0: return 0else:folder = 'work/saveModel/'self.PATH = folder+modelname+str(trainLoss)+'.pdparams'removePATH = folder+modelname+str(self.evaTOP)+'.pdparams'paddle.save(self.model.state_dict(), self.PATH)if self.evaTOP!=0:os.remove(removePATH)self.evaTOP = trainLossreturn 1def saveResult(self):print("---------------saveResult:---------------")self.model.set_state_dict(paddle.load(self.PATH))self.model.eval()paddle.set_grad_enabled(False)paddle.device.cuda.empty_cache()data_dir = glob.glob(self.saveSetDir+'*.jpg')# 创建保存文件夹make_save_result = os.path.join('work/outputs',self.Modelname)if  not os.path.exists(make_save_result):os.mkdir(make_save_result)saveSet = pd.DataFrame()tpsnr,tssim = [],[]for idx,ori_path in enumerate(data_dir):print(len(data_dir),'|',idx+1,end = '\r',flush = True)ori = cv2.imread(ori_path) # W,H,Cori = cv2.cvtColor(ori, cv2.COLOR_BGR2RGB) # BGR 2 RGBori_w,ori_h,ori_c = ori.shape# normalize_test = T.Normalize( # [0.610621, 0.5989216, 0.5876396], # [0.1835931, 0.18701428, 0.19362564],# data_format='HWC')#ori = normalize_test(ori)ori = T.functional.resize(ori,(1024,1024),interpolation = 'bicubic') ###不切块送进去 1024,1024 上采样# from HWC to CHW ,[0,255] to [0,1]ori = np.transpose(ori,(2,0,1))/255ori_img = paddle.to_tensor(ori,dtype="float32")ori_img = paddle.unsqueeze(ori_img,0) # N C W Hout_noise = self.model(ori_img) #不切块送进去out_noise = ori_img + out_noise #加上恢复的像素img_cpu = out_noise.cpu().numpy()#保存结果img_cpu = np.squeeze(img_cpu)img_cpu = np.transpose(img_cpu,(1,2,0)) # C,W,H to W,H,Cimg_cpu = np.clip(img_cpu, 0., 1.)savepic = np.uint8(img_cpu*255)savepic = T.functional.resize(savepic,(ori_w,ori_h),interpolation = 'bicubic') ## 采样回原始大小# 保存路径savedir = os.path.join(make_save_result,ori_path.split('/')[-1])savepic = cv2.cvtColor(savepic, cv2.COLOR_RGB2BGR) # BGRcv2.imwrite(savedir, savepic, [int( cv2.IMWRITE_JPEG_QUALITY), 100])def run(self):self.InitModeAndData()if self.is_Train:modelname = self.Modelname #  使用的网络名称result = pd.DataFrame()for epoch in range(1, self.epochs + 1):trainloss = self.train(epoch)evalloss =  self.Eval(modelname)#Type = self.saveModel(evalloss,modelname)type_ = {'Type':Type}trainloss.update(evalloss)#trainloss.update(type_)result = result.append(trainloss,ignore_index=True)print('Epoch:',epoch,trainloss)#self.scheduler.step()evalloss =  self.Eval(modelname)#result.to_csv('work/log/' +modelname+str(evalloss['SCORE'])+'.csv')#self.saveResult()else:self.saveResult()def main():solver = Solver()solver.run()if __name__ == '__main__':main()

进入输出路径创建readme.txt文件,输入要求的内容:

训练框架:PaddlePaddle

代码运行环境:V100

是否使用GPU:是

单张图片耗时/s:1

模型大小:45

其他说明:算法参考UNet+++

# %cd /home/aistudio/work/outputs/Unet3p
# !zip result.zip *.jpg *.txt

🐅4 项目总结

  • 项目实现了一套简单的训练模板。

  • 项目基于文档阴影消除任务创建,提交结果为0.59951

欢迎大家在该基础上修改自己的算法!


注意:模型没调参,仅保证模板正常使用,需要更高精度可以在项目下留言,关注人多的话会再更新。


有任何问题,欢迎评论区留言交流。
查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 递归法将有序数组转换为二叉搜索树

    108. 将有序数组转换为二叉搜索树 难度简单 给你一个整数数组 nums &#xff0c;其中元素已经按 升序 排列&#xff0c;请你将其转换为一棵 高度平衡 二叉搜索树。 高度平衡 二叉树是一棵满足「每个节点的左右两个子树的高度差的绝对值不超过 1 」的二叉树。 思路 题目中说…...

    2024/4/13 4:36:40
  2. Java项目:在线新闻平台系统(java+jsp+jdbc+mysql)

    源码获取&#xff1a;博客首页 "资源" 里下载&#xff01; 一、项目简述 功能&#xff1a; 用户的登录注册&#xff0c;新闻的分类查询&#xff0c;评论留言&#xff0c;投稿&#xff0c;新闻的后台管理&#xff0c;发布&#xff0c;审核&#xff0c;投稿管理以及汇…...

    2024/5/6 7:28:22
  3. opencv csharp工作学习笔记2

    主要学习csdn大佬haixin-561的笔记&#xff0c;继续学习opencvsharp 1.输出Mat对象像素 private void Form1_Load(object sender, EventArgs e){string path "C:\\Users\\Dennis\\Desktop\\1.png";Mat m new Mat(path,ImreadModes.AnyColor|ImreadModes.AnyDepth)…...

    2024/4/19 18:11:48
  4. 基于BERT的自动标题生成

    &#x1f431; 基于BERT的文本标题生成 一个好标题则是基于文章内容的巧妙提炼&#xff0c;能迅速引起读者的兴趣。 为了快速精准的生成新闻标题&#xff0c;本项目使用经典的BERT模型自动完成新闻标题的生成。 本项目参考了飞桨2.0应用案例教程 — 用BERT实现自动写诗 &…...

    2024/4/8 19:30:20
  5. java基础教程29讲:使用continue忽略本次循环语句,继续下一次循环

    循环中的逻辑代码&#xff0c;需要满足一定条件才执行&#xff0c;比如&#xff0c;有钱我们才能进行购物&#xff0c;如果没有钱就不能进行购买了&#xff0c;这时我们就不用在执行购买的逻辑&#xff0c;要进行取钱然后再购物。 代码举例&#xff1a; //continue忽略本次循…...

    2024/4/20 8:21:20
  6. 6.求前100个自然数的和。

    解法一&#xff08;while语句&#xff09;&#xff1a; package sss;public class S6one {public static void main(String[] args) {int i1,sum0;while(i<100) {sumi;i;}System.out.println("sum"sum);}} 解法二&#xff08;for语句&#xff09;&#xff1a; pa…...

    2024/4/20 16:17:04
  7. java基础教程28讲:循环的跳转和退出

    循环退出的几种场景&#xff1a; 1、退出本次循环执行&#xff0c;下一次循环 2、退出本层循环 3、退出到指定位置 1、使用break结束循环 循环体遇到break&#xff0c;会结束本次循环&#xff0c;并执行循环后面的代码。 //使用break跳出本次循环for (int i 0; i < 5…...

    2024/4/25 23:06:03
  8. LAMP编程之Linux-3

    一、用户与用户组&#xff08;重点&#xff09; Linux系统是一个多用户多任务的操作系统&#xff0c;任何一个要使用系统资源的用户&#xff0c;都必须首先向系统管理员申请一个账号&#xff0c;然后以这个账号的身份进入系统。 用户的账号一方面可以帮助系统管理员对使用系统…...

    2024/5/5 15:57:37
  9. 创建线程的三种方式

    1.继承Thread类 public class MyThread extends Thread{Overridepublic void run() {for(int i0;i<10;i){System.out.println("锄禾日当午"i);}} } public static void main(String[] args){ MyThread mnew MyThread();m.start(); } 2.实现Runnable接口 publi…...

    2024/5/5 13:47:25
  10. python数据结构-队列(queue)

    队列 插入操作只能在尾部进行&#xff0c;删除操作只能在表头进行 队列先进先出 顺序队列 顺序队列的多次入队和出队操作会造成有存储空间却不能进行入队操作的‘假溢出’ 顺序队列的存储单元没有重复使用机制 解决方案&#xff1a;将顺序队列的首尾相连&#xff0c;形成循环…...

    2024/5/5 14:12:57
  11. JS-正则表达式

    文章目录前言一、JS正则RegExp对象二、实战前言 无 一、JS正则 // 边界符号&#xff08;一般用于精准匹配&#xff09; ^ 以它开始 $ 以它结束// 量词符号 * 重复0次或者更多次&#xff08;可理解为乘法&#xff09;重复1次或者更多次&#xff08;可理解为加法&#xff09; ?…...

    2024/4/20 13:46:33
  12. 用户数据报协议(User Datagram Protocol)UDP

    Author:老九 计算机专业 可控之事 沉重冷静 不可控之事 乐观面对 85180586qq.com &#x1f604; &#x1f606; &#x1f635; &#x1f62d; &#x1f630; &#x1f605; &#x1f622; &#x1f624; &#x1f60d; ☺️ &#x1f60e; &#x1f629; &#x1f44d; &#x…...

    2024/4/13 4:37:35
  13. Contest3145 - 2021级新生个人训练赛第37场_C: 导游

    // #include<bits/stdc.h> using namespace std;const int MAXN11; int a[MAXN][MAXN]; bool used[MAXN]; int n,ans;void init() {memset( a,0,sizeof( a ) );memset( used,0,sizeof( used ) );ans0; }// 判断第 x 个学生 目前总和为 sum void dfs( int x,int sum ) {if…...

    2024/4/8 19:30:10
  14. 基于飞桨复现RAM

    一、论文简介 1.1 简介 Recurrent Attention Model (RAM)&#xff0c;它能顺序处理输入信息&#xff0c;在每个时间步关注图像内不同的子区域&#xff0c;然后增量式的结合来自这些固定位置的信息&#xff0c;并建立图像的动态内部表示。 RAM的优点在于能自主选择图像的子区…...

    2024/4/13 4:37:50
  15. PAT 甲 1030 Travel Plan Dijkstra+DFS 算法

    2022.2.13 练习 PAT 甲 1030 Travel Plan &#xff08;原题链接&#xff09; 题解一&#xff1a; #include <bits/stdc.h> using namespace std; const int MAX_NUM510; const int INF0x3fffffff; int n,m,s,D;int d[MAX_NUM];//起点到各点的最短路径长度 int visit[MA…...

    2024/5/5 4:28:42
  16. web—信息搜集

    文章目录信息搜集一、 域名信息1. Whois查询1.1 查询网站1.2 kali工具2. 备案信息查询二、子域名信息1. ip查询2. 网站查询3. 工具扫描三、端口信息1. 插件检测2. 工具扫描2.1 nmap2.2 masscan2.3 御剑端口扫描四、C段和旁站1. 旁站2. C段3. 在线查询网站五、目录信息六、指纹识…...

    2024/4/16 20:58:20
  17. java基础教程27讲:嵌套循环

    通俗的讲&#xff0c;就是循环中套用循环 举例&#xff1a;我们军训排队的例子&#xff0c;我们想打印一个5行5列的梯队&#xff0c;怎么打印呢&#xff1f;就可以使用双层的循环取打印。 废话不多说&#xff0c;我们上代码 //打印一个5行5列的队伍for (int i 1; i <5; i)…...

    2024/5/5 7:31:51
  18. keil5,C文件下的h文件有感叹号

    1、有感叹号可能的原因是因为文件路径中包含汉字&#xff0c; 重新设置不包含汉字的路径&#xff0c;在进行编译就没有感叹号了。...

    2024/4/5 1:58:56
  19. Monodepth-基于自监督学习的单目深度估计模型

    请点击此处查看本环境基本用法. Please click here for more detailed instructions. Monodepth-基于自监督学习的单目深度估计模型 1. 简介 Monodepth是通过自监督学习进行单目深度估计的一种方法。其主要通过预测中间变量disparity(视差)来对一侧图像进行变换重建另一侧…...

    2024/4/15 17:48:30
  20. 霍夫曼编码树(C/C++)

    用一个优先队列&#xff0c;依次把队列前两个合并&#xff0c;再把合并的结果放入优先队列即可。 #include<iostream> #include<cstdio> #include<iomanip> #include<cstdlib> #include <algorithm> #include<string.h> #include<queu…...

    2024/5/5 10:38:13

最新文章

  1. Python实战开发及案例分析(3)——多目标优化

    多目标优化涉及同时优化两个或更多的冲突目标&#xff0c;而这些目标往往不能同时达到最优。在Python中&#xff0c;多目标优化可以通过多种方法实现&#xff0c;包括使用进化算法或其它启发式方法来探索解决方案的权衡。 常用的多目标优化方法 进化算法&#xff1a;如NSGA-I…...

    2024/5/6 18:09:58
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/5/6 9:38:23
  3. 零基础 HTML 入门(详细)

    目录 1.简介 1.1 HTML是什么? 1.2 HTML 版本 1.3 通用声明 2.HTML 编辑器 3.标签的语法 4.HTML属性 5.常用标签 5.1 head 元素 5.1.1 title 标签 5.1.2 base 标签 5.1.3 link 标签 5.1.4 style 标签 5.1.5 meta 标签 5.1.6 script 5.2 HTML 注释 5.3 段落标签…...

    2024/5/5 8:40:44
  4. 全局UI方法-弹窗四-日期滑动选择器弹窗(DatePickerDialog)

    1、描述 根据指定的日期范围创建日期滑动选择器&#xff0c;展示在弹窗上。 2、接口 DatePickerDialog.show(options?: DatePickerDialogOptions) 3、DatePickerDialogOptions 参数名称 参数类型 必填 默认值 参数描述 start Date 否 Date("1970-1-1") 设置选择…...

    2024/5/4 10:54:01
  5. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/4 23:54:56
  6. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/5/4 23:54:56
  7. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/5/4 23:54:56
  8. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/5/6 9:21:00
  9. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/5/4 23:54:56
  10. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/5/4 23:55:05
  11. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/5/4 23:54:56
  12. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/5/4 23:55:16
  13. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/5/4 23:54:56
  14. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/5/6 1:40:42
  15. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/5/4 23:54:56
  16. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/5/4 23:55:17
  17. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/5/4 23:55:06
  18. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/5/4 23:54:56
  19. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/4 23:55:06
  20. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/5/5 8:13:33
  21. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/5/4 23:55:16
  22. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/5/4 23:54:58
  23. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/5/4 23:55:01
  24. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/5/4 23:54:56
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57