尝试复现RePr

我的复现地址:https://github.com/SweetWind1996/implementation-of-RePr

论文看了好几遍,也看了一些讨论,讨论在:https://www.reddit.com/r/MachineLearning/comments/ayh2hf/r_repr_improved_training_of_convolutional_filters/eozi40e/

参考了这个复现:https://github.com/siahuat0727/RePr/blob/master/main.py

最后的结果就是:没达到论文效果,但是有点提升。

2020.7.8更新:因为一直没有做出类似论文中的效果,所以这个复现又进行了尝试。回头重新去看了评论和siahuat0727的复现代码,最后修改了原有代码,使用了学习率衰减和权重衰减,最终取得了一点效果,聊以慰藉我之前的复现过程。本次更新是最后一次更新。

上次复现方式:上次复现使用的是keras,这次使用siahuat0727的代码,并稍作了修改。keras代码的冗余度较高,且没有对剪裁filters停止梯度更新而是在每个batch重新置0.siahuat0727的代码在训练过程中是停止pruned filters梯度更新的。

关于QR分解求解正交向量的问题:一个矩阵进行QR分解后,Q是正交方正,R是上三角矩阵。对于列满秩的矩阵A,A=QR后R存在零行。又因为Q.T=Q=Q逆,所以Q.TA=R,Q.T中的最后n行与A乘得到R中的最后n行,R中最后n行为零。所以取出最后n行的向量就是重新初始化的向量。

注:之前keras的代码就不删除了,我将修改后的siahuat0727的代码放在最前面,只放置修改过的部分,其他代码请到siahuat0727的github上查看。https://github.com/siahuat0727/RePr/blob/master/main.py

有任何问题或者建议请在下面回复,谢谢!

这里画图的部分我用的是visdom。

'''Train CIFAR10 with PyTorch.'''
from __future__ import print_function
import math
import visdom
import argparse
import time
import datetime
import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.backends.cudnn as cudnn
import torchvision
import torchvision.transforms as transforms
import numpy as np
import matplotlib.pyplot as plt
from matplotlib.colors import ListedColormap
from models import Vanilla
from average_meter import AverageMeter
from utils import qr_null, test_filter_sparsity, accuracy
# from tensorboardX import SummaryWriter
# import tensorflow as tfparser = argparse.ArgumentParser(description='PyTorch CIFAR10 Training',formatter_class=argparse.ArgumentDefaultsHelpFormatter)
parser.add_argument('--lr', type=float, default=0.01, help="learning rate")
parser.add_argument('--repr', action='store_true', help="whether to use RePr training scheme")
parser.add_argument('--S1', type=int, default=20, help="S1 epochs for RePr")
parser.add_argument('--S2', type=int, default=10, help="S2 epochs for RePr")
parser.add_argument('--epochs', type=int, default=100, help="total epochs for training")
parser.add_argument('--workers', type=int, default=0, help="number of worker to load data")
parser.add_argument('--print_freq', type=int, default=50, help="print frequency")
parser.add_argument('--gpu', type=int, default=0, help="gpu id")
parser.add_argument('--save_model', type=str, default='best.pt', help="path to save model")
parser.add_argument('--prune_ratio', type=float, default=0.3, help="prune ratio")
parser.add_argument('--comment', type=str, default='', help="tag for tensorboardX event name")
parser.add_argument('--zero_init', action='store_true', help="whether to initialize with zero")def train(train_loader, criterion, optimizer, epoch, model, viz, train_loss_win, train_acc_win, mask, args, conv_weights):batch_time = AverageMeter()data_time = AverageMeter()losses = AverageMeter()top1 = AverageMeter()# switch to train modemodel.train()end = time.time() # 返回当前时间戳for i, (data, target) in enumerate(train_loader):# measure data loading timedata_time.update(time.time() - end)if args.gpu is not None: # TODO None?data = data.cuda(args.gpu, non_blocking=True) # 将数据放在gpu上,非阻塞target = target.cuda(args.gpu, non_blocking=True)output = model(data)loss = criterion(output, target) acc1, _ = accuracy(output, target, topk=(1, 5))losses.update(loss.item(), data.size(0))top1.update(acc1[0], data.size(0))optimizer.zero_grad()loss.backward()S1, S2 = args.S1, args.S2if args.repr and any(s1 <= epoch < s1+S2 for s1 in range(S1, args.epochs, S1+S2)): # 运行到指定epochif i == 0:print('freeze for this epoch')with torch.no_grad():for name, W in conv_weights:W.grad[mask[name]] = 0 # 裁剪filter停止梯度更新optimizer.step()# measure elapsed timebatch_time.update(time.time() - end)if i % args.print_freq == 0:print('Epoch: [{0}][{1}/{2}]\t''Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t''Data {data_time.val:.3f} ({data_time.avg:.3f})\t''Loss {loss.val:.4f} ({loss.avg:.4f})\t''Acc@1 {top1.val:.3f} ({top1.avg:.3f})\t''LR {lr:.3f}\t'.format(epoch, i, len(train_loader), batch_time=batch_time,data_time=data_time, loss=losses, top1=top1,lr=optimizer.param_groups[0]['lr']))end = time.time() viz.line(Y=[losses.avg], X=[epoch], update='append', win=train_loss_win)viz.line(Y=[top1.avg.item()], X=[epoch], update='append', win=train_acc_win)# writer.add_scalar('Train/Acc', top1.avg, epoch) # tensorboard# writer.add_scalar('Train/Loss', losses.avg, epoch)def validate(val_loader, criterion, model, viz, test_loss_win, test_acc_win, args, epoch, best_acc):batch_time = AverageMeter()losses = AverageMeter()top1 = AverageMeter()# switch to evaluate modemodel.eval()with torch.no_grad():end = time.time()for i, (data, target) in enumerate(val_loader):if args.gpu is not None: # TODO None?data = data.cuda(args.gpu, non_blocking=True)target = target.cuda(args.gpu, non_blocking=True)# compute outputoutput = model(data)loss = criterion(output, target)# measure accuracy and record lossacc1, _ = accuracy(output, target, topk=(1, 5))losses.update(loss.item(), data.size(0))top1.update(acc1[0], data.size(0))# measure elapsed timebatch_time.update(time.time() - end)if i % args.print_freq == 0:print('Test: [{0}/{1}]\t''Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t''Loss {loss.val:.4f} ({loss.avg:.4f})\t''Acc@1 {top1.val:.3f} ({top1.avg:.3f})\t'.format(i, len(val_loader), batch_time=batch_time, loss=losses,top1=top1))end = time.time()print(' * Acc@1 {top1.avg:.3f} '.format(top1=top1))viz.line(Y=[losses.avg], X=[epoch], update='append', win=test_loss_win)viz.line(Y=[top1.avg.item()], X=[epoch], update='append', win=test_acc_win)# writer.add_scalar('Test/Acc', top1.avg, epoch)# writer.add_scalar('Test/Loss', losses.avg, epoch)if top1.avg.item() > best_acc:print('new best_acc is {top1.avg:.3f}'.format(top1=top1))print('saving model {}'.format(args.save_model))torch.save(model.state_dict(), args.save_model)return top1.avg.item()def pruning(conv_weights, prune_ratio):print('Pruning...')# calculate inter-filter orthogonalityinter_filter_ortho = {}for name, W in conv_weights:size = W.size()W2d = W.view(size[0], -1) # 变成二维数据W2d = F.normalize(W2d, p=2, dim=1) # 对输入的数据(tensor)进行指定维度的L2_norm运算。W_WT = torch.mm(W2d, W2d.transpose(0, 1)) # 得到相关性矩阵I = torch.eye(W_WT.size()[0], dtype=torch.float32).cuda()# 单位矩阵P = torch.abs(W_WT - I)P = P.sum(dim=1) / size[0] # 求行平均值,变成一维inter_filter_ortho[name] = P.cpu().detach().numpy()# the ranking is computed overall the filters in the networkranks = np.concatenate([v.flatten() for v in inter_filter_ortho.values()])threshold = np.percentile(ranks, 100*(1-prune_ratio)) # 将百分位数设置为阈值prune = {}mask = {}drop_filters = {}for name, W in conv_weights:prune[name] = inter_filter_ortho[name] > threshold  # e.g. [True, False, True, True, False] 找出相关性大的filters# get indice of bad filtersmask[name] = np.where(prune[name])[0]  # e.g. [0, 2, 3] # 找到要裁剪的filter的索引drop_filters[name] = Noneif mask[name].size > 0:with torch.no_grad():drop_filters[name] = W.data[mask[name]].view(mask[name].size, -1).cpu().numpy()W.data[mask[name]] = 0 # 将对应的filter置为0test_filter_sparsity(conv_weights)return prune, mask, drop_filtersdef reinitialize(mask, drop_filters, conv_weights, fc_weights, zero_init):print('Reinitializing...')with torch.no_grad():prev_layer_name = Noneprev_num_filters = Nonefor name, W in conv_weights + fc_weights:if W.dim() == 4 and drop_filters[name] is not None:  # conv weights# find null spacesize = W.size()stdv = 1. / math.sqrt(size[1]*size[2]*size[3])  # https://github.com/pytorch/pytorch/blob/08891b0a4e08e2c642deac2042a02238a4d34c67/torch/nn/modules/conv.py#L40-L47W2d = W.view(size[0], -1).cpu().numpy()null_space = qr_null(np.vstack((drop_filters[name], W2d)))null_space = torch.from_numpy(null_space).cuda()if null_space.size == 0:W.data[mask[name]].uniform_(-stdv, stdv)else:null_space = null_space.transpose(0, 1).view(-1, size[1], size[2], size[3])null_count = 0for mask_idx in mask[name]:if null_count < null_space.size(0):W.data[mask_idx] = null_space.data[null_count].clamp_(-stdv, stdv)null_count += 1else:W.data[mask_idx].uniform_(-stdv, stdv)# # mask channels of prev-layer-pruned-filters' outputs# if prev_layer_name is not None:#     if W.dim() == 4:  # conv#         if zero_init:#             W.data[:, mask[prev_layer_name]] = 0#         else:#             W.data[:, mask[prev_layer_name]].uniform_(-stdv, stdv)#     elif W.dim() == 2: # fc#         if zero_init:#             W.view(W.size(0), prev_num_filters, -1).data[:, mask[prev_layer_name]] = 0#         else:#             stdv = 1. / math.sqrt(W.size(1))#             W.view(W.size(0), prev_num_filters, -1).data[:, mask[prev_layer_name]].uniform_(-stdv, stdv)# prev_layer_name, prev_num_filters = name, W.size(0)test_filter_sparsity(conv_weights)def main():viz = visdom.Visdom(env='repr') # 定义好环境if not torch.cuda.is_available():raise Exception("Only support GPU training")cudnn.benchmark = True # 加速卷积运算args = parser.parse_args()# Dataprint('==> Preparing data..')transform_train = transforms.Compose([ # 数据增广transforms.RandomCrop(32, padding=4),transforms.RandomHorizontalFlip(),transforms.ToTensor(),transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)),])transform_test = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)),])trainset = torchvision.datasets.CIFAR10(root='./data', train=True, download=True, transform=transform_train)trainloader = torch.utils.data.DataLoader(trainset, batch_size=128, shuffle=True, num_workers=args.workers)testset = torchvision.datasets.CIFAR10(root='./data', train=False, download=True, transform=transform_test)testloader = torch.utils.data.DataLoader(testset, batch_size=100, shuffle=False, num_workers=args.workers)# Modelprint('==> Building model..')model = Vanilla()print(model)if args.gpu is not None:torch.cuda.set_device(args.gpu)model.cuda()else:model.cuda()model = torch.nn.DataParallel(model)conv_weights = [] # 卷积层参数fc_weights = [] # 全连接层参数for name, W in model.named_parameters():if W.dim() == 4: # 卷积层参数conv_weights.append((name, W))elif W.dim() == 2: # 全连接层参数fc_weights.append((name, W))criterion = nn.CrossEntropyLoss().cuda()optimizer = torch.optim.SGD(model.parameters(), args.lr, momentum=0.9, weight_decay=0.001)scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=30, gamma=0.5)train_loss_win = viz.line([0.0], [0.], win='train_loss', opts=dict(title='train loss',legend=['trian loss']))# 先定义好窗口train_acc_win = viz.line([0.0], [0.], win='train_acc', opts=dict(title='train acc',legend=['trian acc']))# 先定义好窗口test_loss_win = viz.line([0.0], [0.], win='test_loss', opts=dict(title='test loss',legend=['test loss']))# 先定义好窗口test_acc_win = viz.line([0.0], [0.], win='test_acc', opts=dict(title='test acc',legend=['test acc']))# 先定义好窗口# comment = "-{}-{}-{}".format("repr" if args.repr else "norepr", args.epochs, args.comment)# writer = SummaryWriter(comment=comment)mask = Nonedrop_filters = Nonebest_acc = 0  # best test accuracyprune_map = []for epoch in range(args.epochs):if args.repr:# check if the end of S1 stageif any(epoch == s for s in range(args.S1, args.epochs, args.S1+args.S2)):prune, mask, drop_filters = pruning(conv_weights, args.prune_ratio)prune_map.append(np.concatenate(list(prune.values())))# check if the end of S2 stageif any(epoch == s for s in range(args.S1+args.S2, args.epochs, args.S1+args.S2)):reinitialize(mask, drop_filters, conv_weights, fc_weights, args.zero_init)# scheduler.step()train(trainloader, criterion, optimizer, epoch, model, viz, train_loss_win, train_acc_win, mask, args, conv_weights)acc = validate(testloader, criterion, model, viz, test_loss_win, test_acc_win, args, epoch, best_acc)scheduler.step()best_acc = max(best_acc, acc)test_filter_sparsity(conv_weights)# writer.close()print('overall  best_acc is {}'.format(best_acc))# # Shows which filters turn off as training progresses# if args.repr:#     prune_map = np.array(prune_map).transpose()#     print(prune_map)#     plt.matshow(prune_map.astype(np.int), cmap=ListedColormap(['k', 'w']))#     plt.xticks(np.arange(prune_map.shape[1]))#     plt.yticks(np.arange(prune_map.shape[0]))#     plt.title('Filters on/off map\nwhite: off (pruned)\nblack: on')#     plt.xlabel('Pruning stage')#     plt.ylabel('Filter index from shallower layer to deeper layer')#     plt.savefig('{}-{}.png'.format(#         datetime.datetime.fromtimestamp(time.time()).strftime('%Y-%m-%d-%H:%M:%S'),#         comment))if __name__ == '__main__':main()

效果图:

 

 

 

结论:与之前相比,在训练图中重新初始化时没有下降并且往上提升了,这是和论文一致的。但是测试集acc提升幅度没有论文中那么夸张,同时reinit后的acc提升也和很大。我猜测是作者没有裁剪第一层卷积,另外使用了别的技术。该论文至今代码未开源,作者的理由是未得到许可。

有问题欢迎大家讨论哦!~~


之前的内容:
思考:

1.首先一点是,在ranking的时候是进行全局的ranking,就是将所有的filters放在一起prune。但是O(公式2)是通过层内的计算而来的。生成W(公式1)是先将flatten之后的filter进行了归一化。详细内容可以看论文的第五部分。要注意的是:在讨论中,作者提到,在进行rank时不考虑第一个卷积层。

2.重新初始化 论文中的方法是用QR分解。我这里产生过一个问题,假如filters(全局)的个数远大于flat后的权重,或者每一层的权重尺寸不一样,后面的QR分解怎么操作。因为文章说了,在重新初始化时新的权重是与原来被prune的权重和当前新的权重同时正交的。

3.论文中的figure1  该训练图像很稳定,并且在reinitialize的时候没有出现下降的情况,在论文中的figure7中是出现了下降的。我在实验中也是出现下降的。

我的训练图像(出现reinit后的下降):

 其实测试过程也不是很稳定(图中标错了,蓝色是训练acc,橙色是testacc):

4.说一下结果:我重复训练了几次,结果不是很稳定,可能是我还没完全理解作者的思想或者代码写的存在问题,但这个工作也算是告一段落了。

总结: 1.可能使用的网络和作者不太一样,参数设置也存在出入,但是实验还是有一些效果的。我总共训练了大概20次,最好的一次就是测试集的正确率从67%(standard)上升到了70%(RePr)。 2.网络模型可能用的不太一样,但是如果正确的完成了总是有点效果的。

贴一些主要的代码:

def standard(shape=(32, 32, 3), num_classes=10):modelinput = Input(shape)conv1 = Conv2D(32, (3, 3))(modelinput)bn1 = BatchNormalization()(conv1)act1 = ReLU()(bn1)pool1 = MaxPooling2D((2, 2))(act1)conv2 = Conv2D(32, (3, 3))(pool1)bn2 = BatchNormalization()(conv2)act2 = ReLU()(bn2)pool2 = MaxPooling2D((2, 2))(act2) conv3 = Conv2D(32, (3, 3))(pool2)bn3 = BatchNormalization()(conv3)act3 = ReLU()(bn3)pool3 = MaxPooling2D((2, 2))(act3) flat = Flatten()(pool3)dense1 = Dense(512)(flat)act4 = ReLU()(flat)drop = Dropout(0.5)(act4)dense2 = Dense(num_classes)(drop)act5 = Softmax()(dense2)model = Model(modelinput, act5)return modeldef get_convlayername(model):'''获取卷积层的名称# 参数model: 神经网络模型'''layername = []for i in range(len(model.layers)):# 将模型中所有层的名称存入列表layername.append(model.layers[i].name) # 将卷积层分离出来convlayername = [layername[name] for name in range(len(layername)) if 'conv2d' in layername[name]] return convlayername[1:] # 不包括第一层def prunefilters(model, convlayername, count=0):'''裁剪filters# 参数model: 神经网络模型convlayername: 保存所有卷积层(2D)的名称count: 用于存储每层filters的起始index'''convnum = len(convlayername) # 卷积层的个数params = [i for i in range(convnum)]weight = [i for i in range(convnum)]MASK = [i for i in range(convnum)]rank = dict() # 初始化存储rank的字典drop = []index1 = 0index2 = 0for j in range(convnum):# 保存卷积层的权重到一个列表,列表的每个元素是一个数组params[j] = model.get_layer(convlayername[j]).get_weights() # 将权重转置后才是正常的数组排列(32,32,3,3)weight[j] = params[j][0].Tfilternum = weight[j].shape[0] # 获取每一层filter的个数# 初始化一个用于判断正交性的矩阵W = np.zeros((weight[j].shape[0], weight[j].shape[2]*weight[j].shape[3]*weight[j].shape[1]), dtype='float32')for x in range(filternum):# filters是一个列表,它的每一个元素是包含一个卷积层所有filter(1D)的列表filter = weight[j][x,:,:,:].flatten()filter_length = np.linalg.norm(filter) eps = np.finfo(filter_length.dtype).epsfilter_length = max([filter_length, eps])filter_norm = filter / filter_length # 归一化# 将每一层的filters放到矩阵的每一行W[x,:] = filter_norm# 计算层内正交性I = np.identity(filternum)P = abs(np.dot(W, W.T) - I)O = P.sum(axis=1) / 32 # 计算每行元素之和for index, o in enumerate(O):rank.update({index+count: o})count = filternum + count# 对字典进行排序,在所有filters上进行rankingranking = sorted(rank.items(), key=lambda x: x[1]) # ranking为一个列表,其元素是存放键值的元组for t in range(int(len(ranking)*0.8), len(ranking)):drop.append(ranking[t][0])for j in range(convnum):MASK[j] = np.ones((weight[j].shape), dtype='float32')index2 = weight[j].shape[0] + index1for a in drop:if a >= index1 and a < index2:MASK[j][a-index1,:,:,:] = 0index1 = index2#     weight[j] = (weight[j] * MASK[j]).T# for j in range(convnum):#     params[j][0] = weight[j]#     model.get_layer(convlayername[j]).set_weights(params[j])return MASK, weight, drop, convnum, convlayernamedef Mask(model, mask):convlayername = get_convlayername(model)for i in range(len(convlayername)):Params = [i for i in range(len(convlayername))]Weight = [i for i in range(len(convlayername))]Params[i] = model.get_layer(convlayername[i]).get_weights() Weight[i] = (Params[i][0].T*mask[i]).TParams[i][0] = Weight[i]model.get_layer(convlayername[i]).set_weights(Params[i])prune_callback = LambdaCallback(on_batch_end=lambda batch,logs: Mask(model, mask))def reinit(model, weight, drop, convnum, convlayername):index1 = 0index2 = 0new_params = [i for i in range(convnum)]new_weight = [i for i in range(convnum)]for j in range(convnum):new_params[j] = model.get_layer(convlayername[j]).get_weights() new_weight[j] = new_params[j][0].Tstack_new_filters = new_weight[0]stack_filters = weight[0]filter_index1 = 0filter_index2 = 0for i in range(len(new_weight)-1):next_new_filter = new_weight[i+1]next_filter = weight[i+1]stack_new_filters = np.vstack((stack_new_filters, next_new_filter))stack_filters = np.vstack((stack_filters, next_filter))stack_new_filters_flat = np.zeros((stack_new_filters.shape[0], stack_new_filters.shape[1]*stack_new_filters.shape[2]*stack_new_filters.shape[3]), dtype='float32')stack_filters_flat = np.zeros((stack_filters.shape[0], stack_filters.shape[1]*stack_filters.shape[2]*stack_filters.shape[3]), dtype='float32')for p in range(stack_new_filters.shape[0]):stack_new_filters_flat[p] = stack_new_filters[p].flatten()stack_filters_flat[p] = stack_filters[p].flatten()q = np.zeros((stack_new_filters_flat.shape[0]), dtype='float32')tol = Nonereinit = Nonesolve = Nonefor b in drop:Q, R= qr(stack_new_filters_flat.T)for k in range(R.shape[0]):if np.abs(np.diag(R)[k])==0:# print(k)reinit = Q.T[k]breaknull_space = reinitstack_new_filters_flat[b] = null_spacefor filter_in_stack in range(stack_new_filters_flat.shape[0]):stack_new_filters[filter_in_stack] = stack_new_filters_flat[filter_in_stack].reshape((stack_new_filters.shape[1], stack_new_filters.shape[2], stack_new_filters.shape[3]))for f in range(len(new_weight)):filter_index2 = new_weight[f].shape[0] + filter_index1new_weight[f] = stack_new_filters[filter_index1:filter_index2,:,:,:]filter_index1 = new_weight[f].shape[0]new_params[f][0] = new_weight[f].Tmodel.get_layer(convlayername[f]).set_weights(new_params[f]) 

 

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 图解Transformer

    图解Transformer在上一篇文章中我们一起讨论了现代深度学习模型中无处不在的一种方法——注意力。注意力能够提高神经机器翻译应用程序的性能。 在这篇文章中,我们将一起学习Transformer模型,它使用注意力来提升其训练速度。Transformer模型在特定任务中的表现优于谷歌神经机…...

    2024/4/18 19:54:05
  2. (十二)整合 Shiro 框架,实现用户权限管理

    整合 Shiro 框架,实现用户权限管理1、Shiro简介1.1 基础概念1.2 核心角色1.3 核心理念2、SpringBoot整合Shiro2.1 核心依赖2.2 Shiro核心配置2.3 域对象配置3.4 核心工具类3.5 自定义权限异常提示3、案例演示代码3.1 测试接口3.2 测试流程 1、Shiro简介 1.1 基础概念 Apache S…...

    2024/5/6 5:40:54
  3. 计算机网络面试问题整理

    目录1 网络分层1.1 OSI七层模型1.2 TCP/IP四层协议2 数据链路层相关协议2.1 点对点协议PPP2.2 CSMA/CD协议2.3 主要问题3 网络层协议3.1 地址解析协议ARP3.2 IP协议3.3 路由选择协议3.4 网际报文控制协议3.5 网际组管理协议4 传输层协议4.1 用户数据报协议UDP4.2. TCP协议4.2.1…...

    2024/4/16 6:35:23
  4. 新手也能制作小程序 - 小程序制作工具推荐

    1.牛刀云——适合小白使用的小程序开发工具推荐指数:❤❤严格来说,牛刀云并不是为专业程序员准备的开发工具,但它绝对是一款功能非常强大的微信小程序制作工具。不懂技术不懂编程的人,一定会爱上牛刀云这款工具的。优点1.提供了大量各行各业模板2.在模板基础上更改自由度高,…...

    2024/4/18 2:20:26
  5. 可视化神经机器翻译模型(基于注意力机制的Seq2seq模型)

    可视化神经机器翻译模型(基于注意力机制的Seq2seq模型)序列到序列模型是深度学习模型,在机器翻译、文本摘要和图像字幕等任务中取得了很大的成功。谷歌翻译在2016年底开始在生产中使用这样的模型。两篇开具有创性的论文对该模型进行了解释(Sutskever et al., 2014, Cho et …...

    2024/4/20 2:42:13
  6. 215 数组中的第K个最大元素

    题目描述: 在未排序的数组中找到第 k 个最大的元素。请注意,你需要找的是数组排序后的第 k 个最大的元素,而不是第 k 个不同的元素。 示例 1: 输入: [3,2,1,5,6,4] 和 k = 2 输出: 5 示例 2: 输入: [3,2,3,1,2,4,5,5,6] 和 k = 4 输出: 4 说明: 你可以假设 k 总是有效的,且…...

    2024/4/16 6:34:27
  7. Visual Studio 2010(VS)--消消乐定制版⑨

    Visual Studio 2010(VS)--消消乐定制版⑨上期回顾(上期主要是加了一个判定是否全部完成的处理程序,如果完成会提示消息框以及关闭窗口):这期计划添加一个定时器,当游戏开始时,计时开始,时间到的时候截止,跳出消息框1.0 选择窗口编辑界面,左边工具箱--组件,双击添加Ti…...

    2024/4/16 6:35:33
  8. mybatis 源码解析

    https://www.cnblogs.com/cxuanBlog/p/12248536.html 文章目录Myabatis 四大核心组件SqlSessionFactoryBuilderSqlSessionFactorySqlSessionmapperSqlSession 四大核心组件ExecutorParameterHandlerStatementHandlerResultSetHandlerExecutor 执行器CachingExecutorBaseExecu…...

    2024/4/20 13:29:46
  9. rk3399开发使用记录---烧写

    串口编号 边 GND RXD TXDandroid烧写: win安装驱动 AndroidTool_Release_v2.54 1.OrangePi 4 先接上 DC 电源适配器,再通过 Type-C 数据线连接好 OrangePi 4 与 PC 2.按住 rescover 键不放,轻按下 reset 键,此时 OrangePi 4 进入 loader 模式 3.load文件,擦除,烧写linux烧…...

    2024/4/4 20:33:38
  10. plsql表结构增加的某一列字段

    导出数据库增加的某一列数据 先把某一列数据复制一份,添加(增加)在最下面 然后点击右下角的view sql 就可看到增加列的sql语句...

    2024/4/16 6:35:13
  11. localtunnel,ngrok,frd

    1、localtunnel安装参照 https://www.jianshu.com/p/2a54e8f6637a 2、ngrok安装参照 https://www.jianshu.com/p/571fdbc98d25 https://my.oschina.net/imjueying/blog/1786737 3、frd安装参照 https://blog.csdn.net/u013144287/article/details/78589643/ 建议:以上步骤1、2…...

    2024/4/16 6:35:59
  12. Leetcode刷题之旅(每日一题)--面试题 16.11. 跳水板

    题目描述:思路:一开始看错题以为是给定长度用木板搭建长度,后又反复看了好几次才反应过来这不是给定了木板数量让求有多少种排列组合么,简单的数学过程就能得到答案。 class Solution {public int[] divingBoard(int shorter, int longer, int k) {if(k==0){int[] result=n…...

    2024/4/16 6:36:09
  13. Java基础之: 2.数据类型和运算符

    目录 #Java关键字/淘汰字 #Java标识符 #Java常量,变量 #Java基本数据类型 #Java运算符...

    2024/5/6 11:59:30
  14. P3564 [POI2014]BAR-Salad Bar(树状数组)

    题意: 给定长度为n的字符串,每一位只会是p或j。 求一个最长子串,使得不管是从左往右还是从右往左取,都保证每时每刻已取出的p的个数不小于j的个数。 输出最长子串的长度 数据范围:n<=1e6 解法: 将p视为1,j视为-1,那么问题就变为求一个最长子串,满足这个子串的前缀和…...

    2024/4/27 1:16:40
  15. 面试题目汇总——html、css基础知识部分

    一、html 1.常用浏览器及内核trident内核:IE浏览器及国产浏览器 webkit:谷歌浏览器、Safari及国产双核浏览器 Gecko:Firefox Blink:opera、chrome2.前端页面构成html:超文本标记语言 css:层叠样式表 javaScript:脚本语言3.什么是HTMLhtml是超文本标记语言 html是使用标记来描…...

    2024/5/6 10:44:30
  16. openpyxl3.0官方文档(29)—— 打印设置

    openpyxl提供了对打印设置的完全支持。 编辑打印选项>>> from openpyxl.workbook import Workbook>>>>>> wb = Workbook()>>> ws = wb.active>>>>>> ws.print_options.horizontalCentered = True>>> ws.print_…...

    2024/4/26 10:51:10
  17. 使用@AutoConfigureBefore、After、Order调整Spring Boot自动配置顺序

    前言 Spring Boot是Spring家族具有划时代意义的一款产品,它发展自Spring Framework却又高于它,这种高于主要表现在其最重要的三大特性,而相较于这三大特性中更为重要的便是Spring Boot的自动配置(AutoConfiguration)。与其说是自动,倒不如说是“智慧”,该框架看起来好像…...

    2024/4/19 12:15:13
  18. CentOS 7 Apache服务配置

    Apache服务配置 实验目标 1.安装Apache服务 2.配置个人主机网站 3.配置虚拟主机网站 1. 安装Apache服务 yum -y install httpd[root@master ~]# rpm -qa|grep httpd httpd-2.4.6-93.el7.centos.x86_64 httpd-tools-2.4.6-93.el7.centos.x86_64测试一下 启动httpd服务 [root@mas…...

    2024/4/16 6:35:59
  19. 2020年种植什么蔬菜赚钱?哪种类型的温室最为经济适用

    时间像流水一样一去不复返,转眼间2020年已过了一半了,虽然受疫情影响,但是对于很多农民朋友来说,最重要的还是赚钱,蔬菜呢是我们日常生活中一日三餐必不可少的食物,种什么蔬菜比较赚钱呢,推荐几种,仅供各位参考,排名不分前后。一、秋葵秋葵含有蛋白质、脂肪、碳水化合…...

    2024/4/25 9:05:33
  20. 如何在css样式中设置光标的形状(cursor)

    <html><body> <p>请把鼠标移动到单词上,可以看到鼠标指针发生变化:</p> <span style="cursor:auto"> Auto</span><br /> <span style="cursor:crosshair"> Crosshair</span><br /> <spa…...

    2024/4/19 15:52:33

最新文章

  1. No module named ‘yaml‘

    报错解释&#xff1a; 这个错误表示Python无法找到名为yaml的模块。通常是因为没有安装处理YAML文件的库。 解决方法&#xff1a; 需要安装PyYAML库&#xff0c;这是Python中用于解析和生成YAML文件的一个广泛使用的库。 在命令行中运行以下命令来安装PyYAML&#xff1a; …...

    2024/5/6 13:13:12
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/5/6 9:38:23
  3. C# 构建可定时关闭的异步提示弹窗

    C# 构建可定时关闭的异步提示弹窗 引言1、调用接口的实现2、自动定时窗口的实现 引言 我们在最常用最简单的提示弹框莫过于MessageBox.Show( )的方法了&#xff0c;但是使用久了之后&#xff0c;你会发现这个MessageBox并不是万能的&#xff0c;有事后并不想客户去点击&#x…...

    2024/5/6 8:43:07
  4. 2024年04月IDE流行度最新排名

    点击查看最新IDE流行度最新排名&#xff08;每月更新&#xff09; 2024年04月IDE流行度最新排名 顶级IDE排名是通过分析在谷歌上搜索IDE下载页面的频率而创建的 一个IDE被搜索的次数越多&#xff0c;这个IDE就被认为越受欢迎。原始数据来自谷歌Trends 如果您相信集体智慧&am…...

    2024/5/5 15:45:06
  5. 【蓝桥杯】省模拟赛

    题目 1.奇数次数2.最小步数3.最大极小值和最小极大值 1.奇数次数 问题描述 给定一个仅包含数字字符的字符串&#xff0c;统计一下这个字符串中出现了多少个值为奇数的数位。 输入格式 输入一行包含一个字符串&#xff0c;仅由数字字符组成。 输出格式 输出一行包含一个整数&am…...

    2024/5/1 19:23:28
  6. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/4 23:54:56
  7. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/5/4 23:54:56
  8. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/5/4 23:54:56
  9. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/5/6 9:21:00
  10. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/5/4 23:54:56
  11. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/5/4 23:55:05
  12. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/5/4 23:54:56
  13. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/5/4 23:55:16
  14. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/5/4 23:54:56
  15. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/5/6 1:40:42
  16. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/5/4 23:54:56
  17. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/5/4 23:55:17
  18. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/5/4 23:55:06
  19. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/5/4 23:54:56
  20. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/4 23:55:06
  21. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/5/5 8:13:33
  22. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/5/4 23:55:16
  23. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/5/4 23:54:58
  24. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/5/4 23:55:01
  25. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/5/4 23:54:56
  26. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  27. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  28. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  29. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  30. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  31. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  32. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  33. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  34. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  35. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  36. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  37. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  38. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  39. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  40. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  41. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  42. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  43. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  44. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  45. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57