英伟达公司和加州大学伯克利分校于2018年发表的“基于有条件GAN的高分辨率图像合成及语义操控”项目,是本项目“让老照片重现光彩”的技术基础,算是一个前置开源项目。

“基于有条件GAN的高分辨率图像合成及语义操控”项目的技术核心是Pix2PixHD模型,我们在这里分享一下相关的源代码+中文注释,基于此可以加深对“让老照片重现光彩”项目的理解(尤其是,在老照片项目的模型与训练源代码尚未开源的情况下)。

“基于有条件GAN的高分辨率图像合成及语义操控”项目在GitHub上的链接是:https://github.com/NVIDIA/pix2pixHD

Pix2PixHD模型使用PyTorch构建,代码清晰、整齐,相关的源代码主要是3个文件,分别是:./models/models.py、 ./models/pix2pixHD_model.py 和  ./models/networks.py

说明如下:

(1)./models/models.py

调用 Pix2PixHDModel() 创建模型。

import torch# 创建模型,并返回模型
def create_model(opt):if opt.model == 'pix2pixHD':  # 选择pix2pixHD modelfrom .pix2pixHD_model import Pix2PixHDModel, InferenceModelif opt.isTrain:  # 若是训练,则为Truemodel = Pix2PixHDModel()else:  # 否则,若仅仅是前向传播用来演示,则为Falsemodel = InferenceModel()else:  # 选择 UIModel modelfrom .ui_model import UIModelmodel = UIModel()model.initialize(opt)  # 模型初始化参数if opt.verbose:  # 默认为false,表示之前并无模型保存print("model [%s] was created" % (model.name()))  # 打印label2city模型被创建if opt.isTrain and len(opt.gpu_ids) and not opt.fp16:model = torch.nn.DataParallel(model, device_ids=opt.gpu_ids)  # 多GPU训练return model

(2)./models/pix2pixHD_model.py 

构建模型的核心内容:

定义有条件GAN(Pix2PixHDModel)的生成器、鉴别器、编码器(用于生成实例的低维特征);

定义损失函数(包括:GANloss,VGGloss、特征匹配损失函数);

定义生成器和鉴别器的优化器(optimizer);

定义各模块的输入;

定义forward函数。

import numpy as np
import torch
import os
from torch.autograd import Variable
from util.image_pool import ImagePool
from .base_model import BaseModel
from . import networksclass Pix2PixHDModel(BaseModel):def name(self):return 'Pix2PixHDModel'# loss滤波器:其中g_gan、d_real、d_fake三个loss值是肯定返回的# 这里的g_gan_feat即论文中的“特征匹配损失函数”(论文中的等式(4))# g_vgg为论文中的VGG感知损失函数,稍微改善了输出结果# g_gan_feat、g_vgg两个loss值根据train_options的opt.no_ganFeat_loss, not opt.no_vgg_loss而定(默认是需要返回的)def init_loss_filter(self, use_gan_feat_loss, use_vgg_loss):flags = (True, use_gan_feat_loss, use_vgg_loss, True, True)def loss_filter(g_gan, g_gan_feat, g_vgg, d_real, d_fake):return [l for (l,f) in zip((g_gan,g_gan_feat,g_vgg,d_real,d_fake),flags) if f]return loss_filterdef initialize(self, opt):BaseModel.initialize(self, opt)if opt.resize_or_crop != 'none' or not opt.isTrain: # when training at full res this causes OOMtorch.backends.cudnn.benchmark = Trueself.isTrain = opt.isTrainself.use_features = opt.instance_feat or opt.label_featself.gen_features = self.use_features and not self.opt.load_featuresinput_nc = opt.label_nc if opt.label_nc != 0 else opt.input_nc##### define networks        # Generator network# 生成器网络netG_input_nc = input_nc        if not opt.no_instance:netG_input_nc += 1  # 添加instance通道(区分不同实例)if self.use_features:netG_input_nc += opt.feat_num  # 添加feature_map通道(使用encoder)self.netG = networks.define_G(netG_input_nc, opt.output_nc, opt.ngf, opt.netG, opt.n_downsample_global, opt.n_blocks_global, opt.n_local_enhancers, opt.n_blocks_local, opt.norm, gpu_ids=self.gpu_ids)        # Discriminator network# 鉴别器网络if self.isTrain:use_sigmoid = opt.no_lsgannetD_input_nc = input_nc + opt.output_nc  # real_images + fake_imagesif not opt.no_instance:netD_input_nc += 1  # 添加instance通道(区分不同实例)self.netD = networks.define_D(netD_input_nc, opt.ndf, opt.n_layers_D, opt.norm, use_sigmoid, opt.num_D, not opt.no_ganFeat_loss, gpu_ids=self.gpu_ids)### Encoder network# 编码器网络(是define_G()中的一个子函数)if self.gen_features:          self.netE = networks.define_G(opt.output_nc, opt.feat_num, opt.nef, 'encoder', opt.n_downsample_E, norm=opt.norm, gpu_ids=self.gpu_ids)  if self.opt.verbose:print('---------- Networks initialized -------------')# load networks# 加载网络(模型)if not self.isTrain or opt.continue_train or opt.load_pretrain:pretrained_path = '' if not self.isTrain else opt.load_pretrainself.load_network(self.netG, 'G', opt.which_epoch, pretrained_path)            if self.isTrain:self.load_network(self.netD, 'D', opt.which_epoch, pretrained_path)  if self.gen_features:self.load_network(self.netE, 'E', opt.which_epoch, pretrained_path)              # set loss functions and optimizersif self.isTrain:if opt.pool_size > 0 and (len(self.gpu_ids)) > 1:raise NotImplementedError("Fake Pool Not Implemented for MultiGPU")self.fake_pool = ImagePool(opt.pool_size)  # 初始化fake_pool:num_imgs = 0,images = []self.old_lr = opt.lr# define loss functions# 定义损失函数,在.forward()中使用# 默认使用ganfeat_loss和vgg_lossself.loss_filter = self.init_loss_filter(not opt.no_ganFeat_loss, not opt.no_vgg_loss)self.criterionGAN = networks.GANLoss(use_lsgan=not opt.no_lsgan, tensor=self.Tensor)   self.criterionFeat = torch.nn.L1Loss()if not opt.no_vgg_loss:             self.criterionVGG = networks.VGGLoss(self.gpu_ids)# Names so we can breakout loss# 给损失函数命名self.loss_names = self.loss_filter('G_GAN','G_GAN_Feat','G_VGG','D_real', 'D_fake')# initialize optimizers# 初始化优化器# optimizer G(含:encoder)if opt.niter_fix_global > 0:                import sysif sys.version_info >= (3,0):finetune_list = set()else:from sets import Setfinetune_list = Set()params_dict = dict(self.netG.named_parameters())params = []for key, value in params_dict.items():       if key.startswith('model' + str(opt.n_local_enhancers)):                    params += [value]finetune_list.add(key.split('.')[0])  print('------------- Only training the local enhancer network (for %d epochs) ------------' % opt.niter_fix_global)print('The layers that are finetuned are ', sorted(finetune_list))                         else:params = list(self.netG.parameters())if self.gen_features:              params += list(self.netE.parameters())         self.optimizer_G = torch.optim.Adam(params, lr=opt.lr, betas=(opt.beta1, 0.999))                            # optimizer D                        params = list(self.netD.parameters())    self.optimizer_D = torch.optim.Adam(params, lr=opt.lr, betas=(opt.beta1, 0.999))# feat=feature(特征),inst=instance(实例)# label_map(标签图)每个像素值代表像素的对象类,inst_map(实例图)每个像素包含每个单独对象的唯一对象ID# 获取实例图的边界(边缘),将edge_map与label_map的one-hot向量拼接在一起,封装为Variable,赋值给input_label# real_image和feat_map,封装为Variable,赋值给real_image和feat_map;label_map赋值给inst_mapdef encode_input(self, label_map, inst_map=None, real_image=None, feat_map=None, infer=False):# label_map 数据类型转化if self.opt.label_nc == 0:input_label = label_map.data.cuda()else:# create one-hot vector for label map size = label_map.size()oneHot_size = (size[0], self.opt.label_nc, size[2], size[3])input_label = torch.cuda.FloatTensor(torch.Size(oneHot_size)).zero_()input_label = input_label.scatter_(1, label_map.data.long().cuda(), 1.0)  # 将列表转成one-hot编码的形式if self.opt.data_type == 16:input_label = input_label.half()# get edges from instance map# 获取实例图的边界(边缘),将edge_map与input_label拼接在一起if not self.opt.no_instance:inst_map = inst_map.data.cuda()edge_map = self.get_edges(inst_map)input_label = torch.cat((input_label, edge_map), dim=1)         input_label = Variable(input_label, volatile=infer)# real images for trainingif real_image is not None:real_image = Variable(real_image.data.cuda())# instance map for feature encodingif self.use_features:# get precomputed feature mapsif self.opt.load_features:feat_map = Variable(feat_map.data.cuda())if self.opt.label_feat:inst_map = label_map.cuda()return input_label, inst_map, real_image, feat_map# 定义判别器def discriminate(self, input_label, test_image, use_pool=False):input_concat = torch.cat((input_label, test_image.detach()), dim=1)if use_pool:            fake_query = self.fake_pool.query(input_concat)  # 读取fake imagesreturn self.netD.forward(fake_query)else:return self.netD.forward(input_concat)# 前向传播,使用输入数据运行模型# PyTorch 允许在前向传播过程中进行动态操作(如:跳跃连接等)def forward(self, label, inst, image, feat, infer=False):# Encode Inputs# 获取实例图的边界(边缘),将edge_map与label_map的one-hot向量拼接在一起,封装为Variable,赋值给input_labelinput_label, inst_map, real_image, feat_map = self.encode_input(label, inst, image, feat)  # Fake Generation# 调用生成器生成fake imagesif self.use_features:# 调用netE(即:encoder)对输入图片进行encoder-decoder运算,提取feature_mapif not self.opt.load_features:feat_map = self.netE.forward(real_image, inst_map)                     input_concat = torch.cat((input_label, feat_map), dim=1)  # 将input_label与特征图拼接在一起,作为生成器netG的输入else:input_concat = input_labelfake_image = self.netG.forward(input_concat)# Fake Detection and Loss# 输入为input_label和fake_image,鉴别器生成fake images pool(假图片池)的预测(prediction)、D_fake损失函数pred_fake_pool = self.discriminate(input_label, fake_image, use_pool=True)loss_D_fake = self.criterionGAN(pred_fake_pool, False)# Real Detection and Loss# 输入为input_label和real_image,鉴别器生成real images的预测(prediction)、D_real损失函数pred_real = self.discriminate(input_label, real_image)loss_D_real = self.criterionGAN(pred_real, True)# GAN loss (Fake Passability Loss)# 将输入标签与假图片拼接后作为输入,鉴别器生成假图片预测(prediction)、G_GAN损失函数pred_fake = self.netD.forward(torch.cat((input_label, fake_image), dim=1))        loss_G_GAN = self.criterionGAN(pred_fake, True)# GAN feature matching loss# 计算GAN的特征匹配损失函数,每一个尺度的鉴别器(num_D)、鉴别器的每层特征提取器(pred_fake)分别加权计算并求和loss_G_GAN_Feat = 0if not self.opt.no_ganFeat_loss:feat_weights = 4.0 / (self.opt.n_layers_D + 1)  # 4.0/(鉴别器的层数+1)D_weights = 1.0 / self.opt.num_D  # 1.0/(多尺度的个数,论文中是3)for i in range(self.opt.num_D):for j in range(len(pred_fake[i])-1):# 计算:L1Loss(),lambda_feat为(输入的)调节系数loss_G_GAN_Feat += D_weights * feat_weights * \self.criterionFeat(pred_fake[i][j], pred_real[i][j].detach()) * self.opt.lambda_feat# VGG feature matching loss# VGG特征匹配损失函数loss_G_VGG = 0if not self.opt.no_vgg_loss:# 计算fake_image和real_image之间的VGGLoss,lambda_feat为输入的调节系数# real_image不进行梯度计算loss_G_VGG = self.criterionVGG(fake_image, real_image) * self.opt.lambda_feat# Only return the fake_B image if necessary to save BWreturn [ self.loss_filter( loss_G_GAN, loss_G_GAN_Feat, loss_G_VGG, loss_D_real, loss_D_fake ), None if not infer else fake_image ]# 推理# 将标签、实例边界、特征图作为输入,生成假图片def inference(self, label, inst, image=None):# Encode Inputs        image = Variable(image) if image is not None else None# 将实例边界与label的one-hot向量拼接在一起,返回给input_labelinput_label, inst_map, real_image, _ = self.encode_input(Variable(label), Variable(inst), image, infer=True)# Fake Generationif self.use_features:if self.opt.use_encoded_image:# encode the real image to get feature map# 用encoder计算真实图像的特征图feat_map = self.netE.forward(real_image, inst_map)else:# sample clusters from precomputed features# 随机选取实例图中的某个特征作为编码特征,用于训练feat_map = self.sample_features(inst_map)input_concat = torch.cat((input_label, feat_map), dim=1)  # 把feat_map和input_label拼接在一起,作为生成器的输入else:input_concat = input_label        if torch.__version__.startswith('0.4'):with torch.no_grad():fake_image = self.netG.forward(input_concat)  # 调用generator生成假图片else:fake_image = self.netG.forward(input_concat)return fake_imagedef sample_features(self, inst): # read precomputed feature clusters cluster_path = os.path.join(self.opt.checkpoints_dir, self.opt.name, self.opt.cluster_path)        features_clustered = np.load(cluster_path, encoding='latin1').item()# randomly sample from the feature clusters# 从特征簇中随机采样inst_np = inst.cpu().numpy().astype(int)                                      feat_map = self.Tensor(inst.size()[0], self.opt.feat_num, inst.size()[2], inst.size()[3])  # feat_map.sizefor i in np.unique(inst_np):  # 对于一维数组或者列表,unique()去除其中重复的元素,并按元素由大到小返回一个新的无元素重复的元组或者列表# 确定具有唯一性的特征代码,并将特征代码排序label = i if i < 1000 else i//1000if label in features_clustered:feat = features_clustered[label]  # 从特征簇中取出当前特征代码对应的特征向量cluster_idx = np.random.randint(0, feat.shape[0])   # 任取一个随机数,用于抽取feat[]的某一行数据idx = (inst == int(i)).nonzero()  # nonzero()返回非零的位置,即特征图中与排序后的特征代码一致的所有非零位置for k in range(self.opt.feat_num):  # feat_num,特征的个数# feat_map[channel, feature_num, hight, width]# 任意抽取feat[]中某一行中的数据,赋值给feat_mapfeat_map[idx[:,0], idx[:,1] + k, idx[:,2], idx[:,3]] = feat[cluster_idx, k]if self.opt.data_type==16:feat_map = feat_map.half()return feat_mapdef encode_features(self, image, inst):image = Variable(image.cuda(), volatile=True)feat_num = self.opt.feat_numh, w = inst.size()[2], inst.size()[3]block_num = 32feat_map = self.netE.forward(image, inst.cuda())inst_np = inst.cpu().numpy().astype(int)feature = {}for i in range(self.opt.label_nc):feature[i] = np.zeros((0, feat_num+1))for i in np.unique(inst_np):label = i if i < 1000 else i//1000idx = (inst == int(i)).nonzero()num = idx.size()[0]idx = idx[num//2,:]val = np.zeros((1, feat_num+1))                        for k in range(feat_num):val[0, k] = feat_map[idx[0], idx[1] + k, idx[2], idx[3]].data[0]            val[0, feat_num] = float(num) / (h * w // block_num)feature[label] = np.append(feature[label], val, axis=0)return feature# 获得instance的边界(边缘),t是inst_map# 如果实例边界图中的一个像素的对象ID与它的4个邻居中的任何一个不同,那么该像素为1,否则为0def get_edges(self, t):edge = torch.cuda.ByteTensor(t.size()).zero_()  # 初始化为0edge[:,:,:,1:] = edge[:,:,:,1:] | (t[:,:,:,1:] != t[:,:,:,:-1])edge[:,:,:,:-1] = edge[:,:,:,:-1] | (t[:,:,:,1:] != t[:,:,:,:-1])edge[:,:,1:,:] = edge[:,:,1:,:] | (t[:,:,1:,:] != t[:,:,:-1,:])edge[:,:,:-1,:] = edge[:,:,:-1,:] | (t[:,:,1:,:] != t[:,:,:-1,:])if self.opt.data_type==16:return edge.half()else:return edge.float()# 保存模型参数def save(self, which_epoch):self.save_network(self.netG, 'G', which_epoch, self.gpu_ids)self.save_network(self.netD, 'D', which_epoch, self.gpu_ids)if self.gen_features:self.save_network(self.netE, 'E', which_epoch, self.gpu_ids)def update_fixed_params(self):# after fixing the global generator for a number of iterations, also start finetuning itparams = list(self.netG.parameters())if self.gen_features:params += list(self.netE.parameters())           self.optimizer_G = torch.optim.Adam(params, lr=self.opt.lr, betas=(self.opt.beta1, 0.999))if self.opt.verbose:print('------------ Now also finetuning global generator -----------')# 更新学习率def update_learning_rate(self):lrd = self.opt.lr / self.opt.niter_decaylr = self.old_lr - lrd        for param_group in self.optimizer_D.param_groups:param_group['lr'] = lrfor param_group in self.optimizer_G.param_groups:param_group['lr'] = lrif self.opt.verbose:print('update learning rate: %f -> %f' % (self.old_lr, lr))self.old_lr = lr# 推理模型,前向传播
class InferenceModel(Pix2PixHDModel):def forward(self, inp):label, inst = inpreturn self.inference(label, inst)

(3) ./models/networks.py

定义底层的神经网络模块:

定义生成器define_G(),以及生成器中的核心模块:全局生成器GlobalGenerator()、局部增强器LocalEnhancer()、残差块ResnetBlock()、编码器Encoder();

定义鉴别器define_D(),以及鉴别器的核心模块:多尺度鉴别器MultiscaleDiscriminator()、PactchGAN N层鉴别器NLayerDiscriminator();

定义损失函数GANLoss()、VGGLoss();

定义网络模型Vgg19()。

import torch
import torch.nn as nn
import functools
from torch.autograd import Variable
import numpy as np###############################################################################
# Functions
###############################################################################
def weights_init(m):classname = m.__class__.__name__if classname.find('Conv') != -1:m.weight.data.normal_(0.0, 0.02)elif classname.find('BatchNorm2d') != -1:m.weight.data.normal_(1.0, 0.02)m.bias.data.fill_(0)# 数据的归一化处理
def get_norm_layer(norm_type='instance'):if norm_type == 'batch':norm_layer = functools.partial(nn.BatchNorm2d, affine=True  # 对NHW做归一化elif norm_type == 'instance':norm_layer = functools.partial(nn.InstanceNorm2d, affine=False)  # 对HW做归一化,用在风格化迁移else:raise NotImplementedError('normalization layer [%s] is not found' % norm_type)return norm_layer# 在Pix2PixHD中,G分为两部分,一部分是global net,另一部分是local net,即:define_G()前两个if语句对应的分支
# 第三个if语句对应的是论文中E的部分,用来预先计算类别特征,区分相同语义标签(semantic label)的多个实例
# input_nc = 3,number of input channels(不含instance和feature map通道)
# output_nc = 3,number of output channels(不含instance和feature map通道)
# ngf = 64 第一层卷积核数
def define_G(input_nc, output_nc, ngf, netG, n_downsample_global=3, n_blocks_global=9, n_local_enhancers=1, n_blocks_local=3, norm='instance', gpu_ids=[]):    norm_layer = get_norm_layer(norm_type=norm)     if netG == 'global':    netG = GlobalGenerator(input_nc, output_nc, ngf, n_downsample_global, n_blocks_global, norm_layer)       elif netG == 'local':        netG = LocalEnhancer(input_nc, output_nc, ngf, n_downsample_global, n_blocks_global, n_local_enhancers, n_blocks_local, norm_layer)elif netG == 'encoder':netG = Encoder(input_nc, output_nc, ngf, n_downsample_global, norm_layer)else:raise('generator not implemented!')print(netG)if len(gpu_ids) > 0:assert(torch.cuda.is_available())netG.cuda(gpu_ids[0])netG.apply(weights_init)return netG# 按照论文的说法,Pix2PixHD的D有多个(3个)
# input_nc = 3+3 (real_images+fake_images,不含instance通道)
def define_D(input_nc, ndf, n_layers_D, norm='instance', use_sigmoid=False, num_D=1, getIntermFeat=False, gpu_ids=[]):        norm_layer = get_norm_layer(norm_type=norm)   netD = MultiscaleDiscriminator(input_nc, ndf, n_layers_D, norm_layer, use_sigmoid, num_D, getIntermFeat)   print(netD)if len(gpu_ids) > 0:assert(torch.cuda.is_available())netD.cuda(gpu_ids[0])netD.apply(weights_init)return netDdef print_network(net):if isinstance(net, list):net = net[0]num_params = 0for param in net.parameters():num_params += param.numel()print(net)print('Total number of parameters: %d' % num_params)##############################################################################
# Losses
##############################################################################
class GANLoss(nn.Module):def __init__(self, use_lsgan=True, target_real_label=1.0, target_fake_label=0.0,tensor=torch.FloatTensor):super(GANLoss, self).__init__()self.real_label = target_real_labelself.fake_label = target_fake_labelself.real_label_var = Noneself.fake_label_var = Noneself.Tensor = tensor# lsgan: Least Squares GAN, 最小二乘GANif use_lsgan:self.loss = nn.MSELoss()  #  均方差 MSE(Mean Square Error)else:self.loss = nn.BCELoss()  # 二元交叉熵 BCE(Binary Cross Entropy),xlog(p(x)) + (1-x)log(1-p(x))# Pytorch中基本的变量类型是FloatTensor# Variable是FloatTensor的封装,除了包含FloatTensor还包含有梯度信息def get_target_tensor(self, input, target_is_real):target_tensor = Noneif target_is_real:create_label = ((self.real_label_var is None) or(self.real_label_var.numel() != input.numel()))if create_label:real_tensor = self.Tensor(input.size()).fill_(self.real_label)self.real_label_var = Variable(real_tensor, requires_grad=False)target_tensor = self.real_label_varelse:create_label = ((self.fake_label_var is None) or(self.fake_label_var.numel() != input.numel()))if create_label:fake_tensor = self.Tensor(input.size()).fill_(self.fake_label)self.fake_label_var = Variable(fake_tensor, requires_grad=False)target_tensor = self.fake_label_varreturn target_tensordef __call__(self, input, target_is_real):if isinstance(input[0], list):loss = 0for input_i in input:pred = input_i[-1]target_tensor = self.get_target_tensor(pred, target_is_real)loss += self.loss(pred, target_tensor)return losselse:            target_tensor = self.get_target_tensor(input[-1], target_is_real)return self.loss(input[-1], target_tensor)# VGG19输出的特征图的5个切片的L1Loss(),权重分别为[1/32, 1/16, 1/8, 1/4, 1],加权求和
class VGGLoss(nn.Module):def __init__(self, gpu_ids):super(VGGLoss, self).__init__()        self.vgg = Vgg19().cuda()self.criterion = nn.L1Loss()  # L1Loss, 平均绝对误差(Mean Absolute Error,MAE)self.weights = [1.0/32, 1.0/16, 1.0/8, 1.0/4, 1.0]        # 计算 x 和 y 的 L1Lossdef forward(self, x, y):              x_vgg, y_vgg = self.vgg(x), self.vgg(y)loss = 0for i in range(len(x_vgg)):# .detach()返回一个新的从当前图中分离的 Variable,返回的 Variable 永远不会需要梯度# 可以用于以该变量为输入部分网络求梯度,而不影响y_vgg[]本身loss += self.weights[i] * self.criterion(x_vgg[i], y_vgg[i].detach())return loss##############################################################################
# Generator
##############################################################################
# 局部增强器(论文中的G2)
class LocalEnhancer(nn.Module):def __init__(self, input_nc, output_nc, ngf=32, n_downsample_global=3, n_blocks_global=9, n_local_enhancers=1, n_blocks_local=3, norm_layer=nn.BatchNorm2d, padding_type='reflect'):        super(LocalEnhancer, self).__init__()self.n_local_enhancers = n_local_enhancers###### global generator model ###### G1 modelngf_global = ngf * (2**n_local_enhancers)  # =64model_global = GlobalGenerator(input_nc, output_nc, ngf_global, n_downsample_global, n_blocks_global, norm_layer).model        model_global = [model_global[i] for i in range(len(model_global)-3)] # get rid of final convolution layers# 最后一层的输出[64,512,512]self.model = nn.Sequential(*model_global)                ###### local enhancer layers #####for n in range(1, n_local_enhancers+1): # =2### downsample            ngf_global = ngf * (2**(n_local_enhancers-n))model_downsample = [nn.ReflectionPad2d(3), nn.Conv2d(input_nc, ngf_global, kernel_size=7, padding=0), norm_layer(ngf_global), nn.ReLU(True),nn.Conv2d(ngf_global, ngf_global * 2, kernel_size=3, stride=2, padding=1), norm_layer(ngf_global * 2), nn.ReLU(True)]### residual blocks# model_upsample在此处定义,在 .forward 里使用model_upsample = []for i in range(n_blocks_local):  # =3model_upsample += [ResnetBlock(ngf_global * 2, padding_type=padding_type, norm_layer=norm_layer)]### upsamplemodel_upsample += [nn.ConvTranspose2d(ngf_global * 2, ngf_global, kernel_size=3, stride=2, padding=1, output_padding=1), norm_layer(ngf_global), nn.ReLU(True)]      ### final convolutionif n == n_local_enhancers:                model_upsample += [nn.ReflectionPad2d(3), nn.Conv2d(ngf, output_nc, kernel_size=7, padding=0), nn.Tanh()]                       # 为中间层命名setattr(self, 'model'+str(n)+'_1', nn.Sequential(*model_downsample))setattr(self, 'model'+str(n)+'_2', nn.Sequential(*model_upsample))# 平均池化,输出 y = (x+2*1-3)/2 + 1,下采样self.downsample = nn.AvgPool2d(3, stride=2, padding=[1, 1], count_include_pad=False)def forward(self, input): ### create input pyramid# (缺省)构建二组不同的输入# 通过平均池化,第二组输入尺寸降低1/2input_downsampled = [input]for i in range(self.n_local_enhancers):  # =1input_downsampled.append(self.downsample(input_downsampled[-1])) # [-1]取最后一个元素### output at coarest level# 论文中G1输出的特征图output_prev = self.model(input_downsampled[-1])        ### build up one layer at a time# coarse to fine,G1输出的特征图与G2(F)输出的特征图求和,作为model_upsample()的输入# G2(F)缺省为只有一层,即:n_local_enhancers=1for n_local_enhancers in range(1, self.n_local_enhancers+1):  # =2# 取出各中间层model_downsample = getattr(self, 'model'+str(n_local_enhancers)+'_1')model_upsample = getattr(self, 'model'+str(n_local_enhancers)+'_2')# 确定输入input_i = input_downsampled[self.n_local_enhancers-n_local_enhancers]  # 1-1 = 0# 生成输出output_prev = model_upsample(model_downsample(input_i) + output_prev)return output_prev# 全局生成器(论文中的G1)
class GlobalGenerator(nn.Module):def __init__(self, input_nc, output_nc, ngf=64, n_downsampling=3, n_blocks=9, norm_layer=nn.BatchNorm2d, padding_type='reflect'):assert(n_blocks >= 0)super(GlobalGenerator, self).__init__()        activation = nn.ReLU(True)        # 第一层,用的是zero_padding# 因为第一层用的是7x7的卷积核、padding=0,而 512%7 = 1,因此需要补充6个像素,镜像填充ReflectionPad2d(3)# [3,512,512]->[64,512,512],ngf=64model = [nn.ReflectionPad2d(3), nn.Conv2d(input_nc, ngf, kernel_size=7, padding=0), norm_layer(ngf), activation]# 下采样,每一层卷积的stride都是2,n_downsampling=3### downsample,stride=2# [64,512,512]->[512,64,64]for i in range(n_downsampling):mult = 2**imodel += [nn.Conv2d(ngf * mult, ngf * mult * 2, kernel_size=3, stride=2, padding=1),norm_layer(ngf * mult * 2), activation]# 残差块,残差块不改变分辨率### resnet blocks# dim=512mult = 2**n_downsamplingfor i in range(n_blocks):model += [ResnetBlock(ngf * mult, padding_type=padding_type, activation=activation, norm_layer=norm_layer)]# 和下采样数目一样的上采样部分,上采样部分不像Unet结构,没有用到下采样得到的特征图### upsample,使用转置卷积函数ConvTranspoese2d(),stride=2for i in range(n_downsampling):mult = 2**(n_downsampling - i)model += [nn.ConvTranspose2d(ngf * mult, int(ngf * mult / 2), kernel_size=3, stride=2, padding=1, output_padding=1),norm_layer(int(ngf * mult / 2)), activation]# 模型的输出层。这里没有使用归一化# [64,512,512]->[3,512,512]model += [nn.ReflectionPad2d(3), nn.Conv2d(ngf, output_nc, kernel_size=7, padding=0), nn.Tanh()]        self.model = nn.Sequential(*model)def forward(self, input):return self.model(input)             # Define a resnet block
# 定义残差块
class ResnetBlock(nn.Module):def __init__(self, dim, padding_type, norm_layer, activation=nn.ReLU(True), use_dropout=False):super(ResnetBlock, self).__init__()self.conv_block = self.build_conv_block(dim, padding_type, norm_layer, activation, use_dropout)def build_conv_block(self, dim, padding_type, norm_layer, activation, use_dropout):conv_block = []p = 0if padding_type == 'reflect':conv_block += [nn.ReflectionPad2d(1)]elif padding_type == 'replicate':conv_block += [nn.ReplicationPad2d(1)]elif padding_type == 'zero':p = 1else:raise NotImplementedError('padding [%s] is not implemented' % padding_type)conv_block += [nn.Conv2d(dim, dim, kernel_size=3, padding=p),norm_layer(dim),activation]if use_dropout:conv_block += [nn.Dropout(0.5)]p = 0if padding_type == 'reflect':conv_block += [nn.ReflectionPad2d(1)]elif padding_type == 'replicate':conv_block += [nn.ReplicationPad2d(1)]elif padding_type == 'zero':p = 1else:raise NotImplementedError('padding [%s] is not implemented' % padding_type)conv_block += [nn.Conv2d(dim, dim, kernel_size=3, padding=p),norm_layer(dim)]return nn.Sequential(*conv_block)def forward(self, x):out = x + self.conv_block(x)return out# 编码器网络E,生成低维特征,作为生成器网络的输入
# 这是一个标准的编解码器网络,添加了一个实例级平均池层,以计算对象实例的平均特性(找到每一类对象的多个实例)
class Encoder(nn.Module):def __init__(self, input_nc, output_nc, ngf=32, n_downsampling=4, norm_layer=nn.BatchNorm2d):super(Encoder, self).__init__()        self.output_nc = output_nc        model = [nn.ReflectionPad2d(3), nn.Conv2d(input_nc, ngf, kernel_size=7, padding=0), norm_layer(ngf), nn.ReLU(True)]             ### downsample,stride=2for i in range(n_downsampling):mult = 2**imodel += [nn.Conv2d(ngf * mult, ngf * mult * 2, kernel_size=3, stride=2, padding=1),norm_layer(ngf * mult * 2), nn.ReLU(True)]### upsample,使用转置卷积函数ConvTranspose2d(),stride=2for i in range(n_downsampling):mult = 2**(n_downsampling - i)model += [nn.ConvTranspose2d(ngf * mult, int(ngf * mult / 2), kernel_size=3, stride=2, padding=1, output_padding=1),norm_layer(int(ngf * mult / 2)), nn.ReLU(True)]        model += [nn.ReflectionPad2d(3), nn.Conv2d(ngf, output_nc, kernel_size=7, padding=0), nn.Tanh()]self.model = nn.Sequential(*model) def forward(self, input, inst):outputs = self.model(input)# instance-wise average poolingoutputs_mean = outputs.clone()inst_list = np.unique(inst.cpu().numpy().astype(int))  # instance listfor i in inst_list:for b in range(input.size()[0]):  # 对HW做平均池化indices = (inst[b:b+1] == int(i)).nonzero() # n x 4,nonzero()返回的是数组中非零元素的位置for j in range(self.output_nc): # 每个feature map单独计算output_ins = outputs[indices[:,0] + b, indices[:,1] + j, indices[:,2], indices[:,3]]                    mean_feat = torch.mean(output_ins).expand_as(output_ins)                                        outputs_mean[indices[:,0] + b, indices[:,1] + j, indices[:,2], indices[:,3]] = mean_feat                       return outputs_mean#  多尺度判别器,基于鉴别器的特征匹配损失函数,用来改善GAN损失函数(提高稳定型和优化效率)
class MultiscaleDiscriminator(nn.Module):def __init__(self, input_nc, ndf=64, n_layers=3, norm_layer=nn.BatchNorm2d, use_sigmoid=False, num_D=3, getIntermFeat=False):super(MultiscaleDiscriminator, self).__init__()self.num_D = num_Dself.n_layers = n_layersself.getIntermFeat = getIntermFeat# 生成的NLayerDiscriminator类,被设置(恰当地说,是“命名”)为当前类(self)的一个属性# 生成num_D个NLayerDiscriminatorfor i in range(num_D):netD = NLayerDiscriminator(input_nc, ndf, n_layers, norm_layer, use_sigmoid, getIntermFeat)if getIntermFeat:                                for j in range(n_layers+2):# setattr() 函数对应函数 getattr(),用于设置属性值setattr(self, 'scale'+str(i)+'_layer'+str(j), getattr(netD, 'model'+str(j)))                                   else:setattr(self, 'layer'+str(i), netD.model)self.downsample = nn.AvgPool2d(3, stride=2, padding=[1, 1], count_include_pad=False)  # 平均池化,下采样def singleD_forward(self, model, input):if self.getIntermFeat:result = [input]for i in range(len(model)):result.append(model[i](result[-1]))return result[1:]else:return [model(input)]# D的前向传播def forward(self, input):        num_D = self.num_Dresult = []input_downsampled = input# 逐一下采样,生成多个不同尺度的输入,并经singleD_forward()生成不同尺度的输出for i in range(num_D):if self.getIntermFeat:model = [getattr(self, 'scale'+str(num_D-1-i)+'_layer'+str(j)) for j in range(self.n_layers+2)]else:model = getattr(self, 'layer'+str(num_D-1-i))result.append(self.singleD_forward(model, input_downsampled))if i != (num_D-1):input_downsampled = self.downsample(input_downsampled)return result# 用指定的参数定义PatchGAN鉴别器(只定义网络,loss函数在class Pix2PixHDModel()中定义)
# Defines the PatchGAN discriminator with the specified arguments.
class NLayerDiscriminator(nn.Module):def __init__(self, input_nc, ndf=64, n_layers=3, norm_layer=nn.BatchNorm2d, use_sigmoid=False, getIntermFeat=False):super(NLayerDiscriminator, self).__init__()self.getIntermFeat = getIntermFeatself.n_layers = n_layerskw = 4padw = int(np.ceil((kw-1.0)/2))  # =2,np.ceil()计算大于等于该值的最小整数# [3, 512, 512] -> [64, 257, 257]sequence = [[nn.Conv2d(input_nc, ndf, kernel_size=kw, stride=2, padding=padw), nn.LeakyReLU(0.2, True)]]nf = ndffor n in range(1, n_layers):nf_prev = nfnf = min(nf * 2, 512)sequence += [[nn.Conv2d(nf_prev, nf, kernel_size=kw, stride=2, padding=padw),norm_layer(nf), nn.LeakyReLU(0.2, True)]]nf_prev = nfnf = min(nf * 2, 512)sequence += [[nn.Conv2d(nf_prev, nf, kernel_size=kw, stride=1, padding=padw),norm_layer(nf),nn.LeakyReLU(0.2, True)]]sequence += [[nn.Conv2d(nf, 1, kernel_size=kw, stride=1, padding=padw)]]if use_sigmoid:sequence += [[nn.Sigmoid()]]# 命名,以方便取出每一个中间层(计算feature mapping loss会用到)if getIntermFeat:for n in range(len(sequence)):setattr(self, 'model'+str(n), nn.Sequential(*sequence[n]))else:sequence_stream = []for n in range(len(sequence)):sequence_stream += sequence[n]self.model = nn.Sequential(*sequence_stream)def forward(self, input):if self.getIntermFeat:res = [input]for n in range(self.n_layers+2):model = getattr(self, 'model'+str(n))res.append(model(res[-1]))return res[1:]else:return self.model(input)        from torchvision import models
# VGG19,定义模型的5个切片(只用到0--29层)
class Vgg19(torch.nn.Module):def __init__(self, requires_grad=False):super(Vgg19, self).__init__()vgg_pretrained_features = models.vgg19(pretrained=True).featuresself.slice1 = torch.nn.Sequential()self.slice2 = torch.nn.Sequential()self.slice3 = torch.nn.Sequential()self.slice4 = torch.nn.Sequential()self.slice5 = torch.nn.Sequential()for x in range(2):self.slice1.add_module(str(x), vgg_pretrained_features[x])for x in range(2, 7):self.slice2.add_module(str(x), vgg_pretrained_features[x])for x in range(7, 12):self.slice3.add_module(str(x), vgg_pretrained_features[x])for x in range(12, 21):self.slice4.add_module(str(x), vgg_pretrained_features[x])for x in range(21, 30):self.slice5.add_module(str(x), vgg_pretrained_features[x])if not requires_grad:for param in self.parameters():param.requires_grad = Falsedef forward(self, X):h_relu1 = self.slice1(X)h_relu2 = self.slice2(h_relu1)        h_relu3 = self.slice3(h_relu2)        h_relu4 = self.slice4(h_relu3)        h_relu5 = self.slice5(h_relu4)                out = [h_relu1, h_relu2, h_relu3, h_relu4, h_relu5]return out

(完)

 

 

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 云原生应用Go语言:你还在考虑的时候,别人已经应用实践

    摘要&#xff1a;在近日于上海召开的第六届Gopher China大会上&#xff0c;华为云微服务首席架构师田晓亮分享了《华为云的Go语言云原生实战经验》&#xff0c;讲述如何构建韧性、高可靠、安全的云原生应用系统&#xff0c;并孵化云原生应用开发框架Go chassis&#xff0c;以提…...

    2024/4/24 21:48:50
  2. Python 工具 之 tensorflow gpu 环境的搭建配置(必要的相关工具 cuda\cudnn等 的下载安装)的详细步骤

    Python 工具 之 tensorflow gpu 环境的搭建配置&#xff08;必要的相关工具 cuda\cudnn等 的下载安装&#xff09;的详细步骤 目录 Python 工具 之 tensorflow gpu 环境的搭建配置&#xff08;必要的相关工具 cuda\cudnn等 的下载安装&#xff09;的详细步骤 一、简单介绍 二…...

    2024/4/24 21:48:57
  3. Flink编码:FlinkSQL全面指南

    文章目录1. FlinkSQL定位2. 流与表的对偶性3. 持续查询/增量计算4. 回撤流5. Flink 1.11关于SQL的增强5.1 DDL写法5.2 主键5.3 Catalog6. JOIN算子6.1 双流JOIN原理6.1.1 Inner Join6.1.2 Left Join6.1.3 State数据结构7. 窗口7.1 OverWindow7.1.1 基于数据条目的overwindow7.1…...

    2024/4/24 21:48:49
  4. 后疫情时代,用户到访识别已成为商业地产数字化升级“近义词”

    马云说&#xff0c;“未来十年将是传统企业数字化的最后十年。” 在疫情的重压之下&#xff0c;商业地产或将在 “风险”与“机遇”中重新呈现新的格局, 工人延迟返工、暂停生产影响&#xff0c;一二季度新增供应将有所放缓&#xff0c;疫情期间更多人宅在家中办公&#xff0c;…...

    2024/4/24 21:48:50
  5. 诉讼保全中被申请人提供反担保是否可以申请反担保--可以

    先画个图 债权人&#xff1a;还钱&#xff01; 债务人&#xff1a;我就是不还&#xff01; 债权人&#xff1a;年轻人不能不讲钱德&#xff0c;我要采取措施了 &#xff08;债权人申请诉前财产保全&#xff0c;找了担保公司A提供担保&#xff0c;申请查封债务人的财产&#xf…...

    2024/4/24 21:48:49
  6. 记一次postgres数据库上遇到的坑

    postgresql 第二次公网ip被封&#xff0c;忍无可忍&#xff0c;记一次postgres数据库上遇到的坑。 第一次服务器被黑&#xff0c;运营商告知是因为pg数据库弱密码导致&#xff1b;于是我改了一个强力密码&#xff1a;大写特殊服务号小写数字&#xff0c;就不信了&#xff0c;…...

    2024/4/26 12:21:51
  7. Python起源与发展

    起源 Python的作者&#xff0c;Guido von Rossum&#xff0c;荷兰人。 1982年&#xff0c;Guido从阿姆斯特丹大学获得了数学和计算机硕士学位。然而&#xff0c;尽管他算得上是一位数学家&#xff0c;但他更加享受计算机带来的乐趣。用他的话说&#xff0c;尽管拥有数学和计算机…...

    2024/4/24 21:48:44
  8. 跟踪算法总结

    目前业内公认效果比较好的跟踪算法&#xff1a; Deep-sort和FairMOT&#xff0c;二者主要区别在于&#xff1a;FairMOT是一个集成检测、跟踪的端到端算法&#xff0c;检测部分基于centerNet&#xff0c;跟踪部分类似deep-sort。 个人认为跟踪算法性能的优劣取决于两方面&#x…...

    2024/4/24 16:32:43
  9. 吐血整理的万字Linux内核源码规范

    从编码风格错误开始 曾经在开发Linux内核驱动的时候&#xff0c;创建了一个补丁文件&#xff0c;但是在把补丁打到主分支的时候提示很多编码风格的错误问题&#xff0c;后来重做了补丁才解决了问题&#xff0c;这也是没有严格按照的Linux编码风格从而导致的问题。因为当时代码…...

    2024/4/24 21:36:35
  10. 计算机网络---深入了解

    计算机网络笔记 OSI七层模型 应用层&#xff1a;只关心业务逻辑&#xff0c;不关心数据的传输。表示层&#xff1a;负责协商用于传输的数据格式&#xff0c;并转换数据格式。会话层&#xff1a;建立连接&#xff0c;维持通信&#xff0c;释放连接。传输层&#xff1a;负责将数…...

    2024/4/24 21:36:26
  11. 直播获奖(live)2020-11-25

    直播获奖&#xff08;live&#xff09;2020 CSP-J-02【题目描述】 NO12130即将举行。为了增加观赏性&#xff0c;CCF决定逐一评出每个选手的成绩&#xff0c;并直播即时的获奖分数线。本次竞赛的获奖率为w%&#xff0c;即当前排名前w%的选手的最低成绩就是即时的分数线。 更具体…...

    2024/4/24 21:36:25
  12. 【一天一大 lee】上升下降字符串 (难度:简单) - Day20201125

    题目: 给你一个字符串 s&#xff0c;请你根据下面的算法重新构造字符串&#xff1a; 从 s 中选出最小的字符&#xff0c;将它接在结果字符串的后面。从 s 剩余字符中选出最小的字符&#xff0c;且该字符比上一个添加的字符大&#xff0c;将它接在结果字符串后面。重复步骤 2 …...

    2024/4/24 21:36:25
  13. 安卓系统 自动运行脚本

    JavaScript 实现自己的安卓手机自动化工具脚本(推荐) 看起来不错...

    2024/4/24 21:36:25
  14. 【面试系列】=>洪一峰面试题

    ES6常见面试题总结 1、es5和es6的区别&#xff0c;说一下你所知道的es6 1.let声明变量和const声明常量:,两个都有块级作用域,ES5中是没有块级作用域的,并且var有变量提升,在let中,使用的变量一定要进行声明再使用 2.箭头函数:ES6中的函数定义不再使用关键字funtion(),而是利用…...

    2024/4/24 21:36:27
  15. CAD打印 acad.ctb丢失

    acad.ctb丢失acad.ctb是CAD的打印格式&#xff0c;如果文件丢失&#xff0c;打印时会出现acad.ctb丢失问题。解决方法&#xff1a; 如果丢失了就要去其他CAD里复制一个&#xff0c;放到打印样式文件夹里。 这里提供下载给需要的朋友们 链接&#xff1a;https://pan.baidu.com/s…...

    2024/4/24 21:36:28
  16. 社交是什么?

    「社交」社交本身是一项能力&#xff0c;和高效沟通一样重要&#xff0c;是我们作为社会人必备的重要生存手段之一。只要你不是选择避世隐居&#xff0c;你在这个社会上&#xff0c;是逃不过社交这个事情。 德国哲学家叔本华曾说过&#xff1a;人的社交根本不是本能&#xff0…...

    2024/4/24 21:48:45
  17. 【题解】模拟赛11.22 T4

    首先想想暴力做法 先以1为起点跑一遍bfsbfsbfs 枚举每个除1以外的点作为基地&#xff0c;跑一遍bfsbfsbfs统计答案 复杂度为O(n2)O(n^2)O(n2)&#xff0c;可以拿到20分的好成绩 然后第二部分的bfsbfsbfs可以优化&#xff0c; 当前如果跑到一个已经不可能保护的点&#xff0c;就…...

    2024/4/24 21:48:49
  18. Linux环境下crontab创建组件/进程的守护进程

    前言 跟前面搭建nginx keepalived实现高可用的心跳脚本其实是一致的&#xff0c;还未发表&#xff0c;留个坑。这里采用Linux的定时任务来监控。 利用Linux的定时任务来监听服务是否启动&#xff0c;如果挂掉尝试启动。 crontab -l 查看定时任务们。 编写定时任务脚本 指定…...

    2024/4/24 21:48:44
  19. Uni-App video组件封面poster不显示的问题

    因为在加载视频组件的时候&#xff0c;poster为空&#xff0c;后面即使为poster赋值&#xff0c;video组件也不会更新 解决办法就是加个判断&#xff0c;当poster的值加载完成不为空时显示video组件...

    2024/4/27 18:40:03
  20. UE4打包为HTML5文件

    1. 官方流程参考地址&#xff1a; https://docs.unrealengine.com/zh-CN/Platforms/HTML5/GettingStarted/index.html 注意&#xff1a;UE 4.23以后的版本无法打包为HTML5&#xff0c;如果4.24及以后的版本要打包HTML5 可以尝试GIT上的UE4_HTML5分支版本 2. 坑 1.打包后的程…...

    2024/4/24 21:48:42

最新文章

  1. [学习笔记] Android综合_2024-4-30

    数据库注意&#xff1a; 前端与后端之间 要有事务、锁。 要用innodb才支持事务。 记得使用接口测试工具测试&#xff08;HTTP ResuestListener&#xff09;。 后端给前端发返回的数据类型一定要是map。 为了简洁&#xff0c;后端所有参数用post接口&#xff0c;别用get接口…...

    2024/5/1 8:57:42
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. C++ //练习 11.14 扩展你在11.2.1节练习(第378页)中编写的孩子姓到名的map,添加一个pair的vector,保存孩子的名和生日。

    C Primer&#xff08;第5版&#xff09; 练习 11.14 练习 11.14 扩展你在11.2.1节练习&#xff08;第378页&#xff09;中编写的孩子姓到名的map&#xff0c;添加一个pair的vector&#xff0c;保存孩子的名和生日。 环境&#xff1a;Linux Ubuntu&#xff08;云服务器&#x…...

    2024/4/30 4:05:58
  4. Vue3学习笔记+报错记录

    文章目录 1.创建Vue3.0工程1.1使用vue-cli创建1.2 使用vite创建工程1.3.分析Vue3工程结构 2.常用Composition2.1 拉开序幕的setup2.2 ref函数_处理基本类型2.3 ref函数_处理对象类型2.4 ref函数使用总结 1.创建Vue3.0工程 1.1使用vue-cli创建 查看vue/cli版本&#xff0c;确保…...

    2024/4/30 17:15:04
  5. 416. 分割等和子集问题(动态规划)

    题目 题解 class Solution:def canPartition(self, nums: List[int]) -> bool:# badcaseif not nums:return True# 不能被2整除if sum(nums) % 2 ! 0:return False# 状态定义&#xff1a;dp[i][j]表示当背包容量为j&#xff0c;用前i个物品是否正好可以将背包填满&#xff…...

    2024/4/30 9:36:27
  6. 【Java】ExcelWriter自适应宽度工具类(支持中文)

    工具类 import org.apache.poi.ss.usermodel.Cell; import org.apache.poi.ss.usermodel.CellType; import org.apache.poi.ss.usermodel.Row; import org.apache.poi.ss.usermodel.Sheet;/*** Excel工具类** author xiaoming* date 2023/11/17 10:40*/ public class ExcelUti…...

    2024/4/30 0:57:52
  7. Spring cloud负载均衡@LoadBalanced LoadBalancerClient

    LoadBalance vs Ribbon 由于Spring cloud2020之后移除了Ribbon&#xff0c;直接使用Spring Cloud LoadBalancer作为客户端负载均衡组件&#xff0c;我们讨论Spring负载均衡以Spring Cloud2020之后版本为主&#xff0c;学习Spring Cloud LoadBalance&#xff0c;暂不讨论Ribbon…...

    2024/4/29 18:43:42
  8. TSINGSEE青犀AI智能分析+视频监控工业园区周界安全防范方案

    一、背景需求分析 在工业产业园、化工园或生产制造园区中&#xff0c;周界防范意义重大&#xff0c;对园区的安全起到重要的作用。常规的安防方式是采用人员巡查&#xff0c;人力投入成本大而且效率低。周界一旦被破坏或入侵&#xff0c;会影响园区人员和资产安全&#xff0c;…...

    2024/5/1 4:07:45
  9. VB.net WebBrowser网页元素抓取分析方法

    在用WebBrowser编程实现网页操作自动化时&#xff0c;常要分析网页Html&#xff0c;例如网页在加载数据时&#xff0c;常会显示“系统处理中&#xff0c;请稍候..”&#xff0c;我们需要在数据加载完成后才能继续下一步操作&#xff0c;如何抓取这个信息的网页html元素变化&…...

    2024/4/30 23:32:22
  10. 【Objective-C】Objective-C汇总

    方法定义 参考&#xff1a;https://www.yiibai.com/objective_c/objective_c_functions.html Objective-C编程语言中方法定义的一般形式如下 - (return_type) method_name:( argumentType1 )argumentName1 joiningArgument2:( argumentType2 )argumentName2 ... joiningArgu…...

    2024/4/30 23:16:16
  11. 【洛谷算法题】P5713-洛谷团队系统【入门2分支结构】

    &#x1f468;‍&#x1f4bb;博客主页&#xff1a;花无缺 欢迎 点赞&#x1f44d; 收藏⭐ 留言&#x1f4dd; 加关注✅! 本文由 花无缺 原创 收录于专栏 【洛谷算法题】 文章目录 【洛谷算法题】P5713-洛谷团队系统【入门2分支结构】&#x1f30f;题目描述&#x1f30f;输入格…...

    2024/5/1 6:35:25
  12. 【ES6.0】- 扩展运算符(...)

    【ES6.0】- 扩展运算符... 文章目录 【ES6.0】- 扩展运算符...一、概述二、拷贝数组对象三、合并操作四、参数传递五、数组去重六、字符串转字符数组七、NodeList转数组八、解构变量九、打印日志十、总结 一、概述 **扩展运算符(...)**允许一个表达式在期望多个参数&#xff0…...

    2024/4/29 21:25:29
  13. 摩根看好的前智能硬件头部品牌双11交易数据极度异常!——是模式创新还是饮鸩止渴?

    文 | 螳螂观察 作者 | 李燃 双11狂欢已落下帷幕&#xff0c;各大品牌纷纷晒出优异的成绩单&#xff0c;摩根士丹利投资的智能硬件头部品牌凯迪仕也不例外。然而有爆料称&#xff0c;在自媒体平台发布霸榜各大榜单喜讯的凯迪仕智能锁&#xff0c;多个平台数据都表现出极度异常…...

    2024/5/1 4:35:02
  14. Go语言常用命令详解(二)

    文章目录 前言常用命令go bug示例参数说明 go doc示例参数说明 go env示例 go fix示例 go fmt示例 go generate示例 总结写在最后 前言 接着上一篇继续介绍Go语言的常用命令 常用命令 以下是一些常用的Go命令&#xff0c;这些命令可以帮助您在Go开发中进行编译、测试、运行和…...

    2024/4/30 14:53:47
  15. 用欧拉路径判断图同构推出reverse合法性:1116T4

    http://cplusoj.com/d/senior/p/SS231116D 假设我们要把 a a a 变成 b b b&#xff0c;我们在 a i a_i ai​ 和 a i 1 a_{i1} ai1​ 之间连边&#xff0c; b b b 同理&#xff0c;则 a a a 能变成 b b b 的充要条件是两图 A , B A,B A,B 同构。 必要性显然&#xff0…...

    2024/4/30 22:14:26
  16. 【NGINX--1】基础知识

    1、在 Debian/Ubuntu 上安装 NGINX 在 Debian 或 Ubuntu 机器上安装 NGINX 开源版。 更新已配置源的软件包信息&#xff0c;并安装一些有助于配置官方 NGINX 软件包仓库的软件包&#xff1a; apt-get update apt install -y curl gnupg2 ca-certificates lsb-release debian-…...

    2024/5/1 6:34:45
  17. Hive默认分割符、存储格式与数据压缩

    目录 1、Hive默认分割符2、Hive存储格式3、Hive数据压缩 1、Hive默认分割符 Hive创建表时指定的行受限&#xff08;ROW FORMAT&#xff09;配置标准HQL为&#xff1a; ... ROW FORMAT DELIMITED FIELDS TERMINATED BY \u0001 COLLECTION ITEMS TERMINATED BY , MAP KEYS TERMI…...

    2024/4/30 22:57:18
  18. 【论文阅读】MAG:一种用于航天器遥测数据中有效异常检测的新方法

    文章目录 摘要1 引言2 问题描述3 拟议框架4 所提出方法的细节A.数据预处理B.变量相关分析C.MAG模型D.异常分数 5 实验A.数据集和性能指标B.实验设置与平台C.结果和比较 6 结论 摘要 异常检测是保证航天器稳定性的关键。在航天器运行过程中&#xff0c;传感器和控制器产生大量周…...

    2024/4/30 20:39:53
  19. --max-old-space-size=8192报错

    vue项目运行时&#xff0c;如果经常运行慢&#xff0c;崩溃停止服务&#xff0c;报如下错误 FATAL ERROR: CALL_AND_RETRY_LAST Allocation failed - JavaScript heap out of memory 因为在 Node 中&#xff0c;通过JavaScript使用内存时只能使用部分内存&#xff08;64位系统&…...

    2024/5/1 4:45:02
  20. 基于深度学习的恶意软件检测

    恶意软件是指恶意软件犯罪者用来感染个人计算机或整个组织的网络的软件。 它利用目标系统漏洞&#xff0c;例如可以被劫持的合法软件&#xff08;例如浏览器或 Web 应用程序插件&#xff09;中的错误。 恶意软件渗透可能会造成灾难性的后果&#xff0c;包括数据被盗、勒索或网…...

    2024/5/1 8:32:56
  21. JS原型对象prototype

    让我简单的为大家介绍一下原型对象prototype吧&#xff01; 使用原型实现方法共享 1.构造函数通过原型分配的函数是所有对象所 共享的。 2.JavaScript 规定&#xff0c;每一个构造函数都有一个 prototype 属性&#xff0c;指向另一个对象&#xff0c;所以我们也称为原型对象…...

    2024/4/29 3:42:58
  22. C++中只能有一个实例的单例类

    C中只能有一个实例的单例类 前面讨论的 President 类很不错&#xff0c;但存在一个缺陷&#xff1a;无法禁止通过实例化多个对象来创建多名总统&#xff1a; President One, Two, Three; 由于复制构造函数是私有的&#xff0c;其中每个对象都是不可复制的&#xff0c;但您的目…...

    2024/4/29 19:56:39
  23. python django 小程序图书借阅源码

    开发工具&#xff1a; PyCharm&#xff0c;mysql5.7&#xff0c;微信开发者工具 技术说明&#xff1a; python django html 小程序 功能介绍&#xff1a; 用户端&#xff1a; 登录注册&#xff08;含授权登录&#xff09; 首页显示搜索图书&#xff0c;轮播图&#xff0…...

    2024/5/1 5:23:20
  24. 电子学会C/C++编程等级考试2022年03月(一级)真题解析

    C/C++等级考试(1~8级)全部真题・点这里 第1题:双精度浮点数的输入输出 输入一个双精度浮点数,保留8位小数,输出这个浮点数。 时间限制:1000 内存限制:65536输入 只有一行,一个双精度浮点数。输出 一行,保留8位小数的浮点数。样例输入 3.1415926535798932样例输出 3.1…...

    2024/4/30 20:52:33
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57