PSGAN网络修改

之前搭建的PSGAN是半成品,attention部分只使用原图与参考图的feature map进行计算,没有使用每个像素点与landmarks的相对距离计算,所以这周对网络结构和数据处理部分进行了修改。

在这里插入图片描述

网络结构部分代码如下:

import torch
import torch.nn as nn
import torch.nn.functional as Ffrom ops.spectral_norm import spectral_norm as SpectralNorm# Defines the GAN loss which uses either LSGAN or the regular GAN.
# When LSGAN is used, it is basically same as MSELoss,
# but it abstracts away the need to create the target label tensor
# that has the same size as the inputclass ResidualBlock(nn.Module):"""Residual Block."""def __init__(self, dim_in, dim_out, net_mode=None):super(ResidualBlock, self).__init__()if net_mode == 'MDNet' or (net_mode is None):use_affine = Trueelif net_mode == 'MANet':use_affine = Falseself.main = nn.Sequential(nn.Conv2d(dim_in, dim_out, kernel_size=3, stride=1, padding=1, bias=False),nn.InstanceNorm2d(dim_out, affine=use_affine),nn.ReLU(inplace=True),nn.Conv2d(dim_out, dim_out, kernel_size=3, stride=1, padding=1, bias=False),nn.InstanceNorm2d(dim_out, affine=use_affine))def forward(self, x):return x + self.main(x)class Discriminator(nn.Module):"""Discriminator. PatchGAN."""def __init__(self, image_size=128, conv_dim=64, repeat_num=3, norm='SN'):super(Discriminator, self).__init__()layers = []if norm == 'SN':layers.append(SpectralNorm(nn.Conv2d(3, conv_dim, kernel_size=4, stride=2, padding=1)))else:layers.append(nn.Conv2d(3, conv_dim, kernel_size=4, stride=2, padding=1))layers.append(nn.LeakyReLU(0.01, inplace=True))curr_dim = conv_dimfor i in range(1, repeat_num):if norm == 'SN':layers.append(SpectralNorm(nn.Conv2d(curr_dim, curr_dim * 2, kernel_size=4, stride=2, padding=1)))else:layers.append(nn.Conv2d(curr_dim, curr_dim * 2, kernel_size=4, stride=2, padding=1))layers.append(nn.LeakyReLU(0.01, inplace=True))curr_dim = curr_dim * 2# k_size = int(image_size / np.power(2, repeat_num))if norm == 'SN':layers.append(SpectralNorm(nn.Conv2d(curr_dim, curr_dim * 2, kernel_size=4, stride=1, padding=1)))else:layers.append(nn.Conv2d(curr_dim, curr_dim * 2, kernel_size=4, stride=1, padding=1))layers.append(nn.LeakyReLU(0.01, inplace=True))curr_dim = curr_dim * 2self.main = nn.Sequential(*layers)if norm == 'SN':self.conv1 = SpectralNorm(nn.Conv2d(curr_dim, 1, kernel_size=4, stride=1, padding=1, bias=False))else:self.conv1 = nn.Conv2d(curr_dim, 1, kernel_size=4, stride=1, padding=1, bias=False)# conv1 remain the last square size, 256*256-->30*30# self.conv2 = SpectralNorm(nn.Conv2d(curr_dim, 1, kernel_size=k_size, bias=False))# conv2 output a single numberdef forward(self, x):h = self.main(x)out_makeup = self.conv1(h)return out_makeup.squeeze()class VGG(nn.Module):def __init__(self, pool='max'):super(VGG, self).__init__()# vgg modulesself.conv1_1 = nn.Conv2d(3, 64, kernel_size=3, padding=1)self.conv1_2 = nn.Conv2d(64, 64, kernel_size=3, padding=1)self.conv2_1 = nn.Conv2d(64, 128, kernel_size=3, padding=1)self.conv2_2 = nn.Conv2d(128, 128, kernel_size=3, padding=1)self.conv3_1 = nn.Conv2d(128, 256, kernel_size=3, padding=1)self.conv3_2 = nn.Conv2d(256, 256, kernel_size=3, padding=1)self.conv3_3 = nn.Conv2d(256, 256, kernel_size=3, padding=1)self.conv3_4 = nn.Conv2d(256, 256, kernel_size=3, padding=1)self.conv4_1 = nn.Conv2d(256, 512, kernel_size=3, padding=1)self.conv4_2 = nn.Conv2d(512, 512, kernel_size=3, padding=1)self.conv4_3 = nn.Conv2d(512, 512, kernel_size=3, padding=1)self.conv4_4 = nn.Conv2d(512, 512, kernel_size=3, padding=1)self.conv5_1 = nn.Conv2d(512, 512, kernel_size=3, padding=1)self.conv5_2 = nn.Conv2d(512, 512, kernel_size=3, padding=1)self.conv5_3 = nn.Conv2d(512, 512, kernel_size=3, padding=1)self.conv5_4 = nn.Conv2d(512, 512, kernel_size=3, padding=1)if pool == 'max':self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2)self.pool2 = nn.MaxPool2d(kernel_size=2, stride=2)self.pool3 = nn.MaxPool2d(kernel_size=2, stride=2)self.pool4 = nn.MaxPool2d(kernel_size=2, stride=2)self.pool5 = nn.MaxPool2d(kernel_size=2, stride=2)elif pool == 'avg':self.pool1 = nn.AvgPool2d(kernel_size=2, stride=2)self.pool2 = nn.AvgPool2d(kernel_size=2, stride=2)self.pool3 = nn.AvgPool2d(kernel_size=2, stride=2)self.pool4 = nn.AvgPool2d(kernel_size=2, stride=2)self.pool5 = nn.AvgPool2d(kernel_size=2, stride=2)def forward(self, x, out_keys):out = {'r11': F.relu(self.conv1_1(x))}out['r12'] = F.relu(self.conv1_2(out['r11']))out['p1'] = self.pool1(out['r12'])out['r21'] = F.relu(self.conv2_1(out['p1']))out['r22'] = F.relu(self.conv2_2(out['r21']))out['p2'] = self.pool2(out['r22'])out['r31'] = F.relu(self.conv3_1(out['p2']))out['r32'] = F.relu(self.conv3_2(out['r31']))out['r33'] = F.relu(self.conv3_3(out['r32']))out['r34'] = F.relu(self.conv3_4(out['r33']))out['p3'] = self.pool3(out['r34'])out['r41'] = F.relu(self.conv4_1(out['p3']))out['r42'] = F.relu(self.conv4_2(out['r41']))out['r43'] = F.relu(self.conv4_3(out['r42']))out['r44'] = F.relu(self.conv4_4(out['r43']))out['p4'] = self.pool4(out['r44'])out['r51'] = F.relu(self.conv5_1(out['p4']))out['r52'] = F.relu(self.conv5_2(out['r51']))out['r53'] = F.relu(self.conv5_3(out['r52']))out['r54'] = F.relu(self.conv5_4(out['r53']))out['p5'] = self.pool5(out['r54'])return [out[key] for key in out_keys]# Makeup Apply Network(MANet)
class Generator(nn.Module):"""Generator. Encoder-Decoder Architecture."""def __init__(self, conv_dim=64):super(Generator, self).__init__()encoder_layers = [nn.Conv2d(3, conv_dim, kernel_size=7, stride=1, padding=3, bias=False),nn.InstanceNorm2d(conv_dim, affine=False), nn.ReLU(inplace=True)]# Down-Samplingcurr_dim = conv_dimfor i in range(2):encoder_layers.append(nn.Conv2d(curr_dim, curr_dim * 2, kernel_size=4, stride=2, padding=1, bias=False))encoder_layers.append(nn.InstanceNorm2d(curr_dim * 2, affine=False))encoder_layers.append(nn.ReLU(inplace=True))curr_dim = curr_dim * 2# Bottleneckfor i in range(3):encoder_layers.append(ResidualBlock(dim_in=curr_dim, dim_out=curr_dim, net_mode='MANet'))decoder_layers = []for i in range(3):decoder_layers.append(ResidualBlock(dim_in=curr_dim, dim_out=curr_dim, net_mode='MANet'))# Up-Samplingfor i in range(2):decoder_layers.append(nn.ConvTranspose2d(curr_dim, curr_dim // 2, kernel_size=4, stride=2, padding=1, bias=False))decoder_layers.append(nn.InstanceNorm2d(curr_dim // 2, affine=True))decoder_layers.append(nn.ReLU(inplace=True))curr_dim = curr_dim // 2decoder_layers.append(nn.Conv2d(curr_dim, 3, kernel_size=7, stride=1, padding=3, bias=False))decoder_layers.append(nn.Tanh())self.encoder = nn.Sequential(*encoder_layers)self.decoder = nn.Sequential(*decoder_layers)self.MDNet = MDNet()self.AMM = AMM()def forward(self, source_image, mask_source, rel_pos_source, reference_image, mask_ref, rel_pos_ref):fm_source = self.encoder(source_image)fm_reference = self.MDNet(reference_image)morphed_fm = self.AMM(fm_source, fm_reference, mask_source, mask_ref, rel_pos_source, rel_pos_ref)result = self.decoder(morphed_fm)return resultclass MDNet(nn.Module):"""Generator. Encoder-Decoder Architecture."""# MDNet is similar to the encoder of StarGANdef __init__(self, conv_dim=64):super(MDNet, self).__init__()layers = [nn.Conv2d(3, conv_dim, kernel_size=7, stride=1, padding=3, bias=False),nn.InstanceNorm2d(conv_dim, affine=True), nn.ReLU(inplace=True)]# Down-Samplingcurr_dim = conv_dimfor i in range(2):layers.append(nn.Conv2d(curr_dim, curr_dim * 2, kernel_size=4, stride=2, padding=1, bias=False))layers.append(nn.InstanceNorm2d(curr_dim * 2, affine=True))layers.append(nn.ReLU(inplace=True))curr_dim = curr_dim * 2# Bottleneckfor i in range(3):layers.append(ResidualBlock(dim_in=curr_dim, dim_out=curr_dim, net_mode='MDNet'))self.main = nn.Sequential(*layers)def forward(self, reference_image):fm_reference = self.main(reference_image)return fm_reference# AMM参考 PSGAN 官方代码进行了修改
class AMM(nn.Module):"""Attentive Makeup Morphing module"""def __init__(self):super(AMM, self).__init__()self.visual_feature_weight = 0.01self.lambda_matrix_conv = nn.Conv2d(in_channels=256, out_channels=1, kernel_size=1)self.beta_matrix_conv = nn.Conv2d(in_channels=256, out_channels=1, kernel_size=1)self.softmax = nn.Softmax(dim=-1)@staticmethoddef get_attention_map(mask_source, mask_ref, fm_source, fm_reference, rel_pos_source, rel_pos_ref):HW = 64 * 64batch_size = 3# get 3 part fea using maskchannels = fm_reference.shape[1]mask_source_re = F.interpolate(mask_source, size=64).repeat(1, channels, 1, 1)  # (3, c, h, w)fm_source = fm_source.repeat(3, 1, 1, 1)  # (3, c, h, w)# 计算 Attention 时 we only consider the pixels belonging to same facial region.fm_source = fm_source * mask_source_re  # (3, c, h, w) 3 stands for 3 partsmask_ref_re = F.interpolate(mask_ref, size=64).repeat(1, channels, 1, 1)fm_reference = fm_reference.repeat(3, 1, 1, 1)fm_reference = fm_reference * mask_ref_retheta_input = torch.cat((fm_source * 0.01, rel_pos_source), dim=1)phi_input = torch.cat((fm_reference * 0.01, rel_pos_ref), dim=1)theta_target = theta_input.view(batch_size, -1, HW)  # (N, C+136, H*W)theta_target = theta_target.permute(0, 2, 1)  # (N, H*W, C+136)phi_source = phi_input.view(batch_size, -1, HW)  # (N, C+136, H*W)weight = torch.bmm(theta_target, phi_source)  # (3, HW, HW)weight = weight.cpu()weight_ind = torch.LongTensor(weight.detach().numpy().nonzero())weight = weight.cuda()weight_ind = weight_ind.cuda()weight *= 200  # hyper parameters for visual featureweight = F.softmax(weight, dim=-1)weight = weight[weight_ind[0], weight_ind[1], weight_ind[2]]# 那最后为什么不合成一个1*HW*HW的weight啊?return torch.sparse.FloatTensor(weight_ind, weight, torch.Size([3, HW, HW]))@staticmethoddef atten_feature(mask_ref, attention_map, old_gamma_matrix, old_beta_matrix):# 论文中有说gamma和beta的想法源于style transfer,但不是general style transfer,所以这里要用mask计算每个facial region的stylebatch_size, channels, width, height = old_gamma_matrix.size()# channels = gamma_ref.shape[1]mask_ref_re = F.interpolate(mask_ref, size=old_gamma_matrix.shape[2:]).repeat(1, channels, 1, 1)gamma_ref_re = old_gamma_matrix.repeat(3, 1, 1, 1)old_gamma_matrix = gamma_ref_re * mask_ref_re  # (3, c, h, w)print('old_gamma_matrix shape1: ', old_gamma_matrix.shape)beta_ref_re = old_beta_matrix.repeat(3, 1, 1, 1)old_beta_matrix = beta_ref_re * mask_ref_reold_gamma_matrix = old_gamma_matrix.view(3, 1, -1)print('old_gamma_matrix shape2: ', old_gamma_matrix.shape)old_beta_matrix = old_beta_matrix.view(3, 1, -1)old_gamma_matrix = old_gamma_matrix.permute(0, 2, 1)old_beta_matrix = old_beta_matrix.permute(0, 2, 1)print('old_gamma_matrix shape3: ', old_gamma_matrix.shape)print('attention_map.to_dense() shape: ', attention_map.to_dense().shape)new_gamma_matrix = torch.bmm(attention_map.to_dense(), old_gamma_matrix)new_beta_matrix = torch.bmm(attention_map.to_dense(), old_beta_matrix)gamma = new_gamma_matrix.view(-1, 1, width, height)  # (3, c, h, w)beta = new_beta_matrix.view(-1, 1, width, height)gamma = (gamma[0] + gamma[1] + gamma[2]).unsqueeze(0)  # (c, h, w) combine the three partsbeta = (beta[0] + beta[1] + beta[2]).unsqueeze(0)return gamma, betadef forward(self, fm_source, fm_reference, mask_source, mask_ref, rel_pos_source, rel_pos_ref):# batch_size, channels, width, height = fm_reference.size()old_gamma_matrix = self.lambda_matrix_conv(fm_reference)old_beta_matrix = self.beta_matrix_conv(fm_reference)attention_map = self.get_attention_map(mask_source, mask_ref, fm_source, fm_reference, rel_pos_source,rel_pos_ref)gamma, beta = self.atten_feature(mask_ref, attention_map, old_gamma_matrix, old_beta_matrix)# 对feature_map_source进行修改morphed_fm_source = fm_source * (1 + gamma) + betareturn morphed_fm_source

同时需要修改数据读入makeup_utils部分代码:

import torch.nn.functional as F
from PIL import Image
from torch.autograd import Variable
from torchvision import transformsimport faceutils as futils
from ops.histogram_matching import *transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize([0.5, 0.5, 0.5], [0.5, 0.5, 0.5])])def ToTensor(pic):# handle PIL Imageif pic.mode == 'I':img = torch.from_numpy(np.array(pic, np.int32, copy=False))elif pic.mode == 'I;16':img = torch.from_numpy(np.array(pic, np.int16, copy=False))else:img = torch.ByteTensor(torch.ByteStorage.from_buffer(pic.tobytes()))# PIL image mode: 1, L, P, I, F, RGB, YCbCr, RGBA, CMYKif pic.mode == 'YCbCr':nchannel = 3elif pic.mode == 'I;16':nchannel = 1else:nchannel = len(pic.mode)img = img.view(pic.size[1], pic.size[0], nchannel)# put it from HWC to CHW format# yikes, this transpose takes 80% of the loading time/CPUimg = img.transpose(0, 1).transpose(0, 2).contiguous()if isinstance(img, torch.ByteTensor):return img.float()else:return imgdef copy_area(tar, src, lms):rect = [int(min(lms[:, 1])) - preprocess_image.eye_margin,int(min(lms[:, 0])) - preprocess_image.eye_margin,int(max(lms[:, 1])) + preprocess_image.eye_margin + 1,int(max(lms[:, 0])) + preprocess_image.eye_margin + 1]tar[:, :, rect[1]:rect[3], rect[0]:rect[2]] = \src[:, :, rect[1]:rect[3], rect[0]:rect[2]]def to_var(x, requires_grad=True):if requires_grad:return Variable(x).float()else:return Variable(x, requires_grad=requires_grad).float()def preprocess_image(image: Image):face = futils.dlib.detect(image)assert face, "no faces detected"# face[0]是第一个人脸,给定图片中只能有一个人脸face = face[0]image, face = futils.dlib.crop(image, face)# detect landmarklms = futils.dlib.landmarks(image, face) * 256 / image.widthlms = lms.round()lms_eye_left = lms[42:48]lms_eye_right = lms[36:42]lms = lms.transpose((1, 0)).reshape(-1, 1, 1)  # transpose to (y-x)lms = np.tile(lms, (1, 256, 256))  # (136, h, w)# calculate relative position for each pixelfix = np.zeros((256, 256, 68 * 2))for i in range(256):  # row (y) hfor j in range(256):  # column (x) wfix[i, j, :68] = ifix[i, j, 68:] = jfix = fix.transpose((2, 0, 1))  # (136, h, w)diff = to_var(torch.Tensor(fix - lms).unsqueeze(0), requires_grad=False)# obtain face parsing resultimage = image.resize((512, 512), Image.ANTIALIAS)mask = futils.mask.mask(image).resize((256, 256), Image.ANTIALIAS)mask = to_var(ToTensor(mask).unsqueeze(0), requires_grad=False)mask_lip = (mask == 7).float() + (mask == 9).float()mask_face = (mask == 1).float() + (mask == 6).float()# 需要抠出 mask_eyemask_eyes = torch.zeros_like(mask)copy_area(mask_eyes, mask_face, lms_eye_left)copy_area(mask_eyes, mask_face, lms_eye_right)mask_eyes = to_var(mask_eyes, requires_grad=False)mask_list = [mask_lip, mask_face, mask_eyes]mask_aug = torch.cat(mask_list, 0)  # (3, 1, h, w)# 根据给定 size 或 scale_factor,上采样或下采样输入数据inputmask_re = F.interpolate(mask_aug, size=preprocess_image.diff_size).repeat(1, diff.shape[1], 1,1)  # (3, 136, 64, 64)diff_re = F.interpolate(diff, size=preprocess_image.diff_size).repeat(3, 1, 1, 1)  # (3, 136, 64, 64)# 这就是论文里计算attention时要求同一个facial regiondiff_re = diff_re * mask_re  # (3, 136, 64, 64)# dim=1,求出的norm就是(3, 1, 64, 64),也就是relative position的范数值norm = torch.norm(diff_re, dim=1, keepdim=True).repeat(1, diff_re.shape[1], 1, 1)# torch.where()函数的作用是按照一定的规则合并两个tensor类型norm = torch.where(norm == 0, torch.tensor(1e10), norm)diff_re /= normimage = image.resize((256, 256), Image.ANTIALIAS)real = to_var(transform(image).unsqueeze(0))return [real, mask_aug, diff_re]def preprocess_train_image(image: Image, mask, diff_re):real = transform(image).unsqueeze(0)mask_aug = maskdiff_re = diff_rereturn [real, mask_aug, diff_re]# parameter of eye transfer
preprocess_image.eye_margin = 16
# down sample size
preprocess_image.diff_size = (64, 64)
查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. electron 教程【5】渲染进程中console.log失败?无效?无任何打印输出?

    在渲染进程中调用console.log,其输出需要打开渲染进程所对应网页的调试工具,在调试工具的console中才能看到。打开命令是renderWindow.openDevTools()。主进程中的打印,在终端可以直接看到。...

    2024/4/20 7:02:07
  2. Element-ui table splice 移除数组元素 页面只会删除最后一行 视图和数据不对等

    搭建Vue后台,用了vue-element-admin开源项目,里面的Element-ui table表格删除元素视图更新有误<el-table v-loading="listLoading" :data="list" border fit highlight-current-row style="width: 100%"><el-table-column align=&quo…...

    2024/4/14 21:19:51
  3. 国外android开源网站

    http://android-arsenal.com/...

    2024/4/20 6:47:52
  4. matlab中的微分方程

    第1节 Matlab能够处理什么样的微分方程? Matlab提供了解决包括解微分方程在内的各种类型问题的函数: 1. 常规微分方程(ODEs)的初始值问题 初值问题是用MATLAB ODE求解器解决的最普遍的问题。初始值问题最典型的是对非刚性度(?nonstiff)问题应用ODE45,对刚性度(?sti…...

    2024/4/14 21:19:50
  5. CSDN - 屏蔽百度广告

    由于CSDN在chrome上显示效果与编辑页面都很友好,所以访问csdn或者维护博客时常使用chrome。可恶的百度广告总是在左下角和右下角弹出,深恶痛绝啊!!春天的到来!!—Adblock Plus插件【1】下载 Adblock Plus插件!!!插件下载地址 http://chromecj.com/【2】尝试使用chrom浏…...

    2024/4/16 1:12:13
  6. react+electron构建桌面应用程序安装教程

    创建项目 create-react-app your-project-name cd your-project安装依赖包 yarn add electron electron-squirrel-startupmain.js 在src下创建main.js import { app, BrowserWindow } from electron;// Handle creating/removing shortcuts on Windows when installing/uninsta…...

    2024/4/14 21:19:48
  7. 关于浏览器滚动条自定义美化的若干问题

    之前一直在苦于滚动条的样式问题,终于找到了一种较为折中的方法 先来描述一下滚动条的各属性分别代表什么::-webkit-scrollbar 滚动条整体部分,其中的属性有width,height,background,border(就和一个块级元素一样)等。::-webkit-scrollbar-button 滚动条两端的…...

    2024/4/18 13:19:42
  8. Go桌面浅析

    基本功能 Launcher最基本的功能是: 1)摆放Icon。 2)启动应用。Windows的桌面也是如此,其他都是附属功能。桌面快捷方式和全部应用 手机桌面,最重要的区分是: 1)iphone桌面已经摆满了所有应用图标。小米,魅族,锤子,都是如此。 2)安卓原生桌面仅摆放快捷方式,还有一个…...

    2024/4/24 23:09:53
  9. google阴影下的专业搜索引擎们

    在google的巨手伸向专业搜索市场,雅虎,微软也对此领域虎视耽耽的时刻,我们本土原有的专业搜索引擎该何去何从?这些专业引擎相比之下,规模较小,虽然占有一定市场,但是一旦google等巨头真正进入此领域,这些小引擎的市场占有率将会迅速缩减乃至消失。这决不是危言耸听,套…...

    2024/4/24 23:09:52
  10. css 实现弹框滚动条

    <!-- 活动详情弹框 bigin --><div class="z_activity_popup"><div class="z_activity_mask"><p class="z_activity_close"><span class="z_activity_close_span"><img src="https://cdn.xiaobe…...

    2024/4/24 23:09:52
  11. electron 教程【4】electron 主进程中通过window.webContents.send向渲染进程发送消息失败

    原因:每个渲染进程都对应一个web页面,即BrowserWindow对象, 此BrowserWindow对象是在主进程中创建的。那么,主进程向渲染进程中发送消息时,调用webContents.send方法的window对象,就是此渲染进程所对应的web页面对象!!!具体来说,在主进程中向page1发送消息,就是page…...

    2024/4/24 23:09:50
  12. phpcmsv9广告版位调用方法

    <div class="ya"><?php // pc:get 使用sql语句获取指定条件的广告版位!?>{pc:get sql="SELECT * FROM phpcms_poster WHERE spaceid = 11 AND type=images AND disabled=0 ORDER BY listorder ASC" num="1"} {loop $data $r}<?…...

    2024/4/24 23:09:49
  13. 机器学习数学基础1

    机器学习什么是机器学习? 设计一个模型,通过已有数据(训练数据)按照一定的方式(性能度量进行学习,通过不断改进调整优化模型参数,并将模型用于预测相关问题 机器学习做什么? 解决:给定数据的预测问题(数据清洗、特征选择、算法模型设计、参数优化、结果预测) 不能解决:大…...

    2024/4/24 23:09:49
  14. 第一次向开源项目贡献代码的历程

    本文转载至:http://115.159.48.140/2016/01/31/%E7%AC%AC%E4%B8%80%E6%AC%A1%E5%90%91%E5%BC%80%E6%BA%90%E9%A1%B9%E7%9B%AE%E8%B4%A1%E7%8C%AE%E4%BB%A3%E7%A0%81%E7%9A%84%E5%8E%86%E7%A8%8B/前言 github大神请绕道而行~~~ 这篇文章并没有什么高深的技术,只是自己简单的一…...

    2024/4/24 23:09:55
  15. MATLAB新手简明使用教程(五)——使用matlab求解线性方程组——新手来看,保证看懂。

    前期回顾在上期教程中,我们学习了下面的知识点:如何声明、定义、调用函数(文件)。给函数传递参数、接受函数的返回值。matlab中矩阵的简单使用和下标索引。给我们代码模块化。matlab中for循环(遍历)的使用。如何从一个文件调用另一个函数文件。 本期目标:在数学中经常遇…...

    2024/4/24 23:09:49
  16. swiper滚动条

    html: <div class="swiper-container"><div class="swiper-wrapper"><div class="swiper-slide">test1</div></div><div class="swiper-scrollbar"></div> </div>css:/* 未选中时的滚…...

    2024/4/24 23:09:45
  17. 架设自己的搜索引擎,Nutch安装手记

    utch 是一个刚刚诞生开放源代码(open-source) 的web 搜索引擎.尽管Web 搜索是漫游Internet 的基本要求, 但是现有web 搜索引擎的数目却在下降. 并且这很有可能进一步演变成为一个公司垄断了几乎所有的web 搜索为其谋取商业利益. 这显然不利于广大Internet 用户.Nutch为我们提…...

    2024/4/24 23:09:45
  18. Electron系列教程——第二篇:第一个示例

    Electron系列教程——第二篇:第一个示例一、楔子在正式开始音乐播放器项目之前,还需要来个简单的案例,以便更好的理解Electron。如果你已经使用过Electron,可以跳过这篇。本篇将实现:1,Electron的Windows运行环境配置; 2,Electron开发时的源码结构讲解; 3,结构中每一…...

    2024/4/24 23:09:43
  19. Linux TCP并发请求溺出 调优

    TCP并发请求溺出调优:系统开启某个监听端口后,当多个TCP请求连接监听端后,会把多个请求交给backlog的默认监听队列由socket server一并处理,backlog有自己的队列长度默认128,当机器处理能力较慢且并发请求值较高时就要考虑对backlog队列进行调优。注:backlog就是socket的…...

    2024/4/24 23:09:42
  20. 基于JavaScript代码去掉H5页面中的头尾及广告部分(支持 Android 和 iOS)

    提出问题: APP中嵌入一个H5的网页,但出现的广告条或是无关头尾,相当大煞风景,该如何去掉?分析问题: 1,加入广告条是为了让网站存活下去,这个普通用户无法理解,就此点到为止吧; 2,大多H5头尾部分都用<div> 方式来包裹,里面是以id 或 class 来标示; 3,嵌入we…...

    2024/4/24 23:09:48

最新文章

  1. RabbitMQ发布确认和消息回退(6)

    概念 发布确认原理 生产者将信道设置成 confirm 模式&#xff0c;一旦信道进入 confirm 模式&#xff0c;所有在该信道上面发布的消息都将会被指派一个唯一的 ID(从 1 开始)&#xff0c;一旦消息被投递到所有匹配的队列之后&#xff0c;broker就会发送一个确认给生产者(包含消…...

    2024/4/27 7:10:42
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. 手机无线投屏到windows11电脑

    1 安装无线投影组件 2 电脑端打开允许其他设备投影的开关 3 手机找到投屏选项 4 手机搜索可用设备连接即可 这里的官方文档给的不太好,给了一些让人眼花撩乱的信息,以下是经过整合的有效信息...

    2024/4/26 12:46:48
  4. 逆向案例十二——看准网企业信息json格式的信息

    网址&#xff1a;【全国公司排行|排名榜单|哪家好】-看准网 打开开发者工具——刷新——网络——XHR——下滑页面加载新的页面——找到数据包 发现参数加密&#xff0c;返回的数据也进行了加密 按关键字在下方搜索 kiv进入第一个js文件 ctrlf打开文件里面的搜索框继续搜kiv找到…...

    2024/4/26 15:32:21
  5. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/4/26 18:09:39
  6. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/4/26 20:12:18
  7. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/4/26 23:05:52
  8. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/4/27 4:00:35
  9. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/4/25 18:39:22
  10. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/4/25 18:39:22
  11. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/4/26 21:56:58
  12. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/4/25 16:48:44
  13. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/4/26 16:00:35
  14. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/4/25 18:39:16
  15. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/4/25 18:39:16
  16. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/4/26 19:03:37
  17. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/4/26 22:01:59
  18. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/4/25 18:39:14
  19. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/4/26 23:04:58
  20. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/4/25 2:10:52
  21. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/4/25 18:39:00
  22. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/4/26 19:46:12
  23. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/4/25 18:38:58
  24. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/4/25 18:38:57
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57