GAN 很复杂?如何用不到 50 行代码训练 GAN(基于 PyTorch)

       2014 年,Ian Goodfellow 和他在蒙特利尔大学的同事发表了一篇震撼学界的论文《Generative Adversarial Nets》,这标志着生成对抗网络(GAN)的诞生,而这是通过对计算图和博弈论的创新性结合。研究显示:给定充分的建模能力,两个博弈模型能够通过简单的反向传播(backpropagation)来协同训练。这两个模型的角色定位十分鲜明。给定真实数据集 R,G 是生成器(generator),它的任务是生成能以假乱真的假数据;而 D 是判别器 (discriminator),它从真实数据集或者 G 那里获取数据, 然后做出判别真假的标记。Ian Goodfellow 的比喻是,G 就像一个赝品作坊,想要让做出来的东西尽可能接近真品,蒙混过关。而 D 就是文物鉴定专家,要能区分出真品和高仿(但在这个例子中,造假者 G 看不到原始数据,而只有 D 的鉴定结果——前者是在盲干)。

       理想情况下,D 和 G 都会随着不断训练,做得越来越好——直到 G 基本上成为了一个“赝品制造大师”,而 D 因无法正确区分两种数据分布输给 G。实践中,Ian Goodfellow 展示的GAN在本质上是:G 能够对原始数据集进行一种无监督学习,找到以更低维度的方式(lower-dimensional manner)来表示数据的某种方法。

 下面通过实现一个GAN网络学习正态分布来了解GAN。

 首先导入pytorch依赖的库。

import torch
import torch.nn as nn
import torch.optim as optim
from torch.distributions.normal import Normal
#定义正态分布
#它的均值和标准差如下
data_mean = 3.0 
data_stddev = 0.4
Series_Length = 30#定义生成网络(Generator)
#接收一些随机输入,按照上面的定义生成正态分布
g_input_size = 20    
g_hidden_size = 150  
g_output_size = Series_Length#定义对抗网络(Adversarial)
#True(1.0) 如果输入的数据符合定义的正态分布; False(0.0) 如果输入的数据不符合定义的正态分布
d_input_size = Series_Length
d_hidden_size = 75   
d_output_size = 1#定义数据输入方式
d_minibatch_size = 15 
g_minibatch_size = 10
num_epochs = 5000
print_interval = 1000#定义学习率(learning rate)
d_learning_rate = 3e-3
g_learning_rate = 8e-3
#以下两个函数一个可以得到真正的分布,一个可以得到噪声。
#真正的分布用来训练 Discriminator,噪声用来作为 Generator的输入def get_real_sampler(mu, sigma):dist = Normal( mu, sigma )return lambda m, n: dist.sample( (m, n) ).requires_grad_()  def get_noise_sampler():return lambda m, n: torch.rand(m, n).requires_grad_()  # Uniform-dist data into generator, _NOT_ Gaussianactual_data = get_real_sampler( data_mean, data_stddev )
noise_data  = get_noise_sampler()
# 简单的4层网络的生成器用来输出符合我们想要的正态分布的均值。class Generator(nn.Module):def __init__(self, input_size, hidden_size, output_size):super(Generator, self).__init__()self.map1 = nn.Linear(input_size, hidden_size)self.map2 = nn.Linear(hidden_size, hidden_size)self.map3 = nn.Linear(hidden_size, output_size)self.xfer = torch.nn.SELU()def forward(self, x):x = self.xfer( self.map1(x) )x = self.xfer( self.map2(x) )return self.xfer( self.map3( x ) )
#鉴别器(Discriminator)简单的Linear模型,返回True或者False 
class Discriminator(nn.Module):def __init__(self, input_size, hidden_size, output_size):super(Discriminator, self).__init__()self.map1 = nn.Linear(input_size, hidden_size)self.map2 = nn.Linear(hidden_size, hidden_size)self.map3 = nn.Linear(hidden_size, output_size)self.elu = torch.nn.ELU()def forward(self, x):x = self.elu(self.map1(x))x = self.elu(self.map2(x))return torch.sigmoid( self.map3(x) )
#搭建网络,使用SGD优化函数和BCE损失函数G = Generator(input_size=g_input_size, hidden_size=g_hidden_size, output_size=g_output_size)
D = Discriminator(input_size=d_input_size, hidden_size=d_hidden_size, output_size=d_output_size)criterion = nn.BCELoss() 
d_optimizer = optim.SGD(D.parameters(), lr=d_learning_rate ) 
g_optimizer = optim.SGD(G.parameters(), lr=g_learning_rate )
#Traindef train_D_on_actual():real_data = actual_data(d_minibatch_size, d_input_size)decision = D(real_data)error = criterion(decision, torch.ones(d_minibatch_size, 1))  # ones = trueerror.backward()def train_D_on_generated() :noise = noise_data(d_minibatch_size, g_input_size)fake_data = G(noise) decision = D(fake_data)error = criterion(decision, torch.zeros(d_minibatch_size, 1))  # zeros = fakeerror.backward()def train_G():noise = noise_data(g_minibatch_size, g_input_size)fake_data = G(noise)fake_decision = D(fake_data)error = criterion(fake_decision, torch.ones(g_minibatch_size, 1))  # we want to fool, so pretend it's all genuineerror.backward()return error.item(), fake_datalosses = []for epoch in range(num_epochs):D.zero_grad()train_D_on_actual()    train_D_on_generated()d_optimizer.step()G.zero_grad()loss,generated = train_G()g_optimizer.step()losses.append( loss )if( epoch % print_interval) == (print_interval-1):print( "Epoch %6d. Loss %5.3f" % ( epoch+1, loss ) )print( "Training complete" )

Output:

Epoch   1000. Loss 0.630
Epoch   2000. Loss 0.693
Epoch   3000. Loss 0.699
Epoch   4000. Loss 0.695
Epoch   5000. Loss 0.711
Training complete

结果展示:

import matplotlib.pyplot as plt
def draw( data ) :    plt.figure()d = data.tolist() if isinstance(data, torch.Tensor ) else dataplt.plot( d ) plt.show()
d = torch.empty( generated.size(0), 53 ) 
for i in range( 0, d.size(0) ) :d[i] = torch.histc( generated[i], min=0, max=5, bins=53 )
draw( d.t() )

 

 

根据参考资料1训练的正态分布结果如下所示:

Epoch 0: D (0.824586033821106 real_err, 0.5667324066162109 fake_err) G (0.8358850479125977 err); Real Dist ([4.04999169665575, 1.1961469779141327]),  Fake Dist ([-0.7985607595443726, 0.029085312190181612]) 
Epoch 100: D (0.6598804593086243 real_err, 0.650113582611084 fake_err) G (0.7386993169784546 err); Real Dist ([3.992502051591873, 1.2512647908868664]),  Fake Dist ([3.3269334855079653, 0.04917005677031684]) 
Epoch 200: D (0.5211157202720642 real_err, 0.48223015666007996 fake_err) G (0.9489601254463196 err); Real Dist ([4.063567101441324, 1.223350898628472]),  Fake Dist ([4.171090561866761, 0.08437742403922882]) 
Epoch 300: D (0.6931817531585693 real_err, 0.6667982935905457 fake_err) G (0.7198074460029602 err); Real Dist ([3.9114013223052027, 1.1737565311661027]),  Fake Dist ([5.706633312940598, 2.3018437903116187]) 
Epoch 400: D (0.6633034944534302 real_err, 0.6330634951591492 fake_err) G (0.7584028840065002 err); Real Dist ([4.023453078389168, 1.173117767184327]),  Fake Dist ([6.466390012741089, 1.767663960120162]) 
Epoch 500: D (0.6556934118270874 real_err, 0.6795700192451477 fake_err) G (0.6501794457435608 err); Real Dist ([3.973978979229927, 1.2705711235753019]),  Fake Dist ([3.3727304997444154, 1.7591466849210384]) 
Epoch 600: D (0.5973175764083862 real_err, 0.5650959610939026 fake_err) G (0.7776590585708618 err); Real Dist ([3.8488472831845284, 1.1891462464838336]),  Fake Dist ([9.568378679275513, 0.4357023789663153]) 
Epoch 700: D (0.6975439786911011 real_err, 0.7180769443511963 fake_err) G (0.6462653279304504 err); Real Dist ([3.932738121032715, 1.224346374745391]),  Fake Dist ([3.466270624160767, 1.48932632524634]) 
Epoch 800: D (0.6946223378181458 real_err, 0.7050127983093262 fake_err) G (0.680088460445404 err); Real Dist ([4.02625471547246, 1.29204413337018]),  Fake Dist ([4.613226325511932, 0.5539247818601367]) 
Epoch 900: D (0.44320639967918396 real_err, 0.23536285758018494 fake_err) G (1.3666585683822632 err); Real Dist ([3.9780734790563583, 1.1573922540562789]),  Fake Dist ([4.808220813274383, 1.064950020735757]) 
Epoch 1000: D (0.885653555393219 real_err, 0.6489665508270264 fake_err) G (0.7260928153991699 err); Real Dist ([4.0037252243161205, 1.2868414641703296]),  Fake Dist ([4.627316523551941, 1.5317822031475823]) 
Epoch 1100: D (0.6624018549919128 real_err, 0.7288448810577393 fake_err) G (0.6776896119117737 err); Real Dist ([3.9965664629936217, 1.2443392558363737]),  Fake Dist ([4.027970834732056, 1.2487745961745749]) 
Epoch 1200: D (0.7081807851791382 real_err, 0.6922528147697449 fake_err) G (0.694278359413147 err); Real Dist ([3.8926908799931406, 1.2083719715743726]),  Fake Dist ([4.002916200637817, 1.2386345105986898]) 
Epoch 1300: D (0.697959303855896 real_err, 0.6919403076171875 fake_err) G (0.6800123453140259 err); Real Dist ([3.938853431105614, 1.2639616232174713]),  Fake Dist ([4.216027449607849, 1.1380480721612078]) 
Epoch 1400: D (0.6784661412239075 real_err, 0.6617948412895203 fake_err) G (0.6870113611221313 err); Real Dist ([3.975500011086464, 1.2855628816411546]),  Fake Dist ([4.137257863044739, 1.1094145415740049]) 
Epoch 1500: D (0.6794069409370422 real_err, 0.7028912305831909 fake_err) G (0.7014129161834717 err); Real Dist ([4.00296139895916, 1.271967197931525]),  Fake Dist ([3.9285888566970826, 1.1982835178367897]) 
Epoch 1600: D (0.6860584020614624 real_err, 0.7060790657997131 fake_err) G (0.6802226901054382 err); Real Dist ([4.058289145439863, 1.361246466914028]),  Fake Dist ([4.036336513757706, 1.2252188340907701]) 
Epoch 1700: D (0.7053802609443665 real_err, 0.696638822555542 fake_err) G (0.6959577202796936 err); Real Dist ([4.022835171103478, 1.2827733756994895]),  Fake Dist ([4.063137277841568, 1.3042375271806848]) 
Epoch 1800: D (0.6980652213096619 real_err, 0.6925143599510193 fake_err) G (0.694028913974762 err); Real Dist ([3.89647038769722, 1.1976831036253377]),  Fake Dist ([4.048781845808029, 1.2693529337960752]) 
Epoch 1900: D (0.6892062425613403 real_err, 0.6972301006317139 fake_err) G (0.6869157552719116 err); Real Dist ([4.033831748008728, 1.186610768225342]),  Fake Dist ([4.022395441293717, 1.2413968482619808]) 
Epoch 2000: D (0.6959377527236938 real_err, 0.6776554584503174 fake_err) G (0.6982696056365967 err); Real Dist ([4.000252573490143, 1.223225489126993]),  Fake Dist ([3.9199998137950898, 1.3520746107193355]) 
Epoch 2100: D (0.6903250813484192 real_err, 0.6950635313987732 fake_err) G (0.6896666288375854 err); Real Dist ([4.090404322504997, 1.2083467717828416]),  Fake Dist ([3.9939954011440277, 1.2462546765450804]) 
Epoch 2200: D (0.6896629333496094 real_err, 0.6950464248657227 fake_err) G (0.6950165033340454 err); Real Dist ([3.990626331356354, 1.2201043116027737]),  Fake Dist ([4.001183384895325, 1.2655219236978008]) 
Epoch 2300: D (0.6915993690490723 real_err, 0.6974573135375977 fake_err) G (0.6993840336799622 err); Real Dist ([4.023877061843872, 1.321507703580412]),  Fake Dist ([3.9179794733524322, 1.1990433265674747]) 
Epoch 2400: D (0.6870835423469543 real_err, 0.692215621471405 fake_err) G (0.6913619637489319 err); Real Dist ([3.921516800969839, 1.2407385883672248]),  Fake Dist ([4.060535876750946, 1.1816568966425942]) 
Epoch 2500: D (0.6934722065925598 real_err, 0.6907936334609985 fake_err) G (0.6907175779342651 err); Real Dist ([3.9839096758961676, 1.2733894018432854]),  Fake Dist ([3.990558073759079, 1.3400137248202226]) 
Epoch 2600: D (0.6947907209396362 real_err, 0.6915742754936218 fake_err) G (0.6919546127319336 err); Real Dist ([4.0130539444088935, 1.240739679033649]),  Fake Dist ([4.084916990995407, 1.2655242770514346]) 
Epoch 2700: D (0.6968568563461304 real_err, 0.6744566559791565 fake_err) G (0.6968263387680054 err); Real Dist ([3.996440895199776, 1.1986359766448267]),  Fake Dist ([3.9793724551200866, 1.1482623145157824]) 
Epoch 2800: D (0.693473756313324 real_err, 0.697898805141449 fake_err) G (0.7002295255661011 err); Real Dist ([4.00081592977047, 1.2474840907225078]),  Fake Dist ([3.895143656253815, 1.2719435213827661]) 
Epoch 2900: D (0.6950169801712036 real_err, 0.6947277188301086 fake_err) G (0.6900919675827026 err); Real Dist ([4.0483872441053395, 1.232666877408606]),  Fake Dist ([3.9184666118621827, 1.2345984703674788]) 
Epoch 3000: D (0.6994454860687256 real_err, 0.6960627436637878 fake_err) G (0.6918361186981201 err); Real Dist ([4.078680800318718, 1.2215170294711815]),  Fake Dist ([4.022074975967407, 1.1967591283090955]) 
Epoch 3100: D (0.6898576617240906 real_err, 0.6938331127166748 fake_err) G (0.6958847641944885 err); Real Dist ([3.906800366342068, 1.3110840468016158]),  Fake Dist ([3.951125014066696, 1.2253583646427406]) 
Epoch 3200: D (0.694175660610199 real_err, 0.6946524977684021 fake_err) G (0.6921048760414124 err); Real Dist ([3.958098252296448, 1.248056967946781]),  Fake Dist ([4.001224509239197, 1.1983827779563796]) 
Epoch 3300: D (0.6922207474708557 real_err, 0.6947858333587646 fake_err) G (0.6927611231803894 err); Real Dist ([3.8829670441150665, 1.1155963206788106]),  Fake Dist ([4.046220509767532, 1.1753880201920783]) 
Epoch 3400: D (0.6900198459625244 real_err, 0.6953887939453125 fake_err) G (0.6889302134513855 err); Real Dist ([4.065795364975929, 1.213252057901399]),  Fake Dist ([3.9650485837459564, 1.2672685373911108]) 
Epoch 3500: D (0.6929183006286621 real_err, 0.695112943649292 fake_err) G (0.6910595297813416 err); Real Dist ([3.8757613455876707, 1.2584639089844412]),  Fake Dist ([3.9378762912750243, 1.190689370381666]) 
Epoch 3600: D (0.693882942199707 real_err, 0.6944809556007385 fake_err) G (0.6939374804496765 err); Real Dist ([4.123380273818969, 1.2824410770958474]),  Fake Dist ([4.010826068401337, 1.2212849080025636]) 
Epoch 3700: D (0.6974205374717712 real_err, 0.6935890913009644 fake_err) G (0.6917606592178345 err); Real Dist ([4.021837902694941, 1.28027136741628]),  Fake Dist ([4.034767779827118, 1.3234349547715394]) 
Epoch 3800: D (0.6955257654190063 real_err, 0.6945357322692871 fake_err) G (0.6925974488258362 err); Real Dist ([4.12936865234375, 1.2460711614374878]),  Fake Dist ([4.0321874620914455, 1.2769764427346884]) 
Epoch 3900: D (0.6915967464447021 real_err, 0.6909477114677429 fake_err) G (0.6927705407142639 err); Real Dist ([4.0268408809900285, 1.2063883800130077]),  Fake Dist ([4.052658556222916, 1.2281464364273882]) 
Epoch 4000: D (0.6922350525856018 real_err, 0.6925557255744934 fake_err) G (0.6929080486297607 err); Real Dist ([4.021845901966095, 1.2925729163376942]),  Fake Dist ([4.025567240476608, 1.1972493940735556]) 
Epoch 4100: D (0.6933664679527283 real_err, 0.6933354139328003 fake_err) G (0.6938549280166626 err); Real Dist ([3.989677229881287, 1.2065878529125207]),  Fake Dist ([4.0539454262256625, 1.2933863721439718]) 
Epoch 4200: D (0.6897806525230408 real_err, 0.6932942867279053 fake_err) G (0.6924738883972168 err); Real Dist ([3.9900609830617904, 1.271517711087724]),  Fake Dist ([3.9614700605869295, 1.2921971453653849]) 
Epoch 4300: D (0.6924872398376465 real_err, 0.6926604509353638 fake_err) G (0.6937258839607239 err); Real Dist ([4.0992556612789635, 1.2569412389872303]),  Fake Dist ([4.127795008897781, 1.2884594395504811]) 
Epoch 4400: D (0.6946849822998047 real_err, 0.6911969184875488 fake_err) G (0.6942746639251709 err); Real Dist ([4.076893085479736, 1.2744374182411338]),  Fake Dist ([3.969561124563217, 1.2501441583969877]) 
Epoch 4500: D (0.6914315819740295 real_err, 0.6935481429100037 fake_err) G (0.6912876963615417 err); Real Dist ([3.94799566257, 1.2232376272767607]),  Fake Dist ([4.002278556823731, 1.2505587333284056]) 
Epoch 4600: D (0.7037312388420105 real_err, 0.6909893155097961 fake_err) G (0.6984265446662903 err); Real Dist ([3.9354238008633255, 1.2836771049555928]),  Fake Dist ([3.9731800141334532, 1.2964666046336777]) 
Epoch 4700: D (0.6944875121116638 real_err, 0.6940887570381165 fake_err) G (0.6929762363433838 err); Real Dist ([4.047859039783478, 1.190815309623828]),  Fake Dist ([3.990305748939514, 1.2529010827404359]) 
Epoch 4800: D (0.6942726373672485 real_err, 0.692735493183136 fake_err) G (0.6925361752510071 err); Real Dist ([3.9683418440818787, 1.2123594456412528]),  Fake Dist ([4.032746832132339, 1.213276069713684]) 
Epoch 4900: D (0.6940117478370667 real_err, 0.6929702758789062 fake_err) G (0.6935417652130127 err); Real Dist ([3.947842192411423, 1.2553405683297756]),  Fake Dist ([4.038874376773834, 1.2395540432380345]) 
Plotting the generated distribution...
Values: [4.539769649505615, 1.63444983959198, 4.4557600021362305, 5.5528364181518555, 4.340044021606445, 2.198087453842163, 2.9329943656921387, 2.3880555629730225, 1.5384184122085571, 4.269472122192383, 4.8173933029174805, 4.85664176940918, 1.6450153589248657, 3.9355251789093018, 5.932168960571289, 1.3862096071243286, 3.9333181381225586, 3.1726975440979004, 3.696260452270508, 3.052525520324707, 3.3560595512390137, 3.0390870571136475, 2.6469674110412598, 4.103339195251465, 4.503757476806641, 4.599853038787842, 4.138694763183594, 4.259690284729004, 4.146164417266846, 1.6029934883117676, 5.843445777893066, 2.2497828006744385, 3.3378164768218994, 1.9207507371902466, 2.179079532623291, 4.690481185913086, 4.0812296867370605, 4.095373630523682, 3.8689160346984863, 6.373284816741943, 4.976202964782715, 2.3788414001464844, 4.4080915451049805, 4.072725772857666, 3.577080726623535, 1.4012407064437866, 3.4651074409484863, 1.9623477458953857, 2.1658592224121094, 4.821807861328125, 5.086670875549316, 4.142153739929199, 4.716959476470947, 6.827563285827637, 2.624016046524048, 4.119378089904785, 4.425724983215332, 2.424050807952881, 4.140542030334473, 4.075761795043945, 1.755760908126831, 1.417391300201416, 2.0366601943969727, 4.73690128326416, 5.473508834838867, 1.9511061906814575, 1.465293526649475, 4.018528938293457, 3.181847095489502, 4.6452250480651855, 3.0562477111816406, 4.425663948059082, 4.1797943115234375, 3.442857503890991, 4.425789833068848, 4.443751335144043, 3.9827144145965576, 4.548138618469238, 6.538724899291992, 4.286013603210449, 5.2574357986450195, 4.251628875732422, 3.104124069213867, 4.130465984344482, 5.224208354949951, 5.200654983520508, 4.489740371704102, 4.862637519836426, 4.596247673034668, 4.180943965911865, 1.4127655029296875, 4.495588779449463, 4.70436429977417, 5.339097023010254, 4.162871360778809, 3.3220300674438477, 3.5057907104492188, 6.428955078125, 4.321961879730225, 3.730902671813965, 2.5903165340423584, 4.3856611251831055, 2.466325044631958, 4.158637046813965, 4.462804317474365, 2.2380805015563965, 6.760380744934082, 6.239953994750977, 6.000397682189941, 3.1869945526123047, 3.6029326915740967, 4.3395891189575195, 4.260036945343018, 5.334171295166016, 4.524747848510742, 2.57928204536438, 4.054173946380615, 4.614095687866211, 4.792035102844238, 4.328861236572266, 2.879300832748413, 4.3328118324279785, 4.333817481994629, 4.411715507507324, 4.565466403961182, 5.426932334899902, 2.719020366668701, 4.017667770385742, 1.9505842924118042, 3.4826974868774414, 5.189241409301758, 3.940156936645508, 4.229568958282471, 5.3276214599609375, 2.97536301612854, 4.3470964431762695, 4.007474899291992, 4.351943016052246, 5.556241989135742, 5.733500003814697, 3.7382421493530273, 4.794580459594727, 3.421999454498291, 7.074246406555176, 4.084506988525391, 3.7553157806396484, 3.855440616607666, 1.9251701831817627, 1.8792188167572021, 4.106200695037842, 6.982327461242676, 4.308199882507324, 4.918728828430176, 3.0963966846466064, 4.6833295822143555, 6.2155351638793945, 4.364574909210205, 4.047039031982422, 6.688213348388672, 4.255982398986816, 3.465512990951538, 4.640872001647949, 4.323538780212402, 3.897338390350342, 4.843024730682373, 4.405055046081543, 4.61812162399292, 4.554985046386719, 2.2624690532684326, 3.297863245010376, 4.553571701049805, 6.009780406951904, 4.676636219024658, 3.8342180252075195, 4.457300662994385, 4.081836700439453, 3.9818239212036133, 2.5001485347747803, 4.403700828552246, 3.586491107940674, 4.333785057067871, 4.095248222351074, 4.599881172180176, 4.317112922668457, 3.5421624183654785, 1.306177020072937, 4.3163161277771, 4.383136749267578, 6.219839572906494, 4.408424377441406, 3.992192268371582, 4.691045761108398, 2.5535831451416016, 3.9267373085021973, 6.662070274353027, 5.228813648223877, 4.331976413726807, 4.020612716674805, 4.450967788696289, 4.163876533508301, 5.478597640991211, 4.078657627105713, 4.090933799743652, 2.7492101192474365, 2.77490496635437, 6.481786727905273, 3.1561057567596436, 1.6670697927474976, 3.084937572479248, 3.8840131759643555, 4.455242156982422, 4.475409507751465, 4.464001655578613, 4.2673821449279785, 3.9205546379089355, 1.739898443222046, 4.940193176269531, 3.888833522796631, 4.795442581176758, 3.1650333404541016, 5.506227493286133, 1.7203617095947266, 2.949620246887207, 4.330982208251953, 3.9301090240478516, 3.6949357986450195, 2.6255245208740234, 4.946829795837402, 4.48328161239624, 6.919548034667969, 4.124054431915283, 3.8777058124542236, 3.122709035873413, 3.371814250946045, 4.4012603759765625, 3.430072069168091, 4.387892246246338, 4.785408020019531, 4.445903778076172, 1.794466495513916, 1.3930325508117676, 3.5082497596740723, 2.6178057193756104, 3.084986686706543, 4.436977863311768, 2.976431131362915, 3.308137893676758, 4.502436637878418, 4.193325042724609, 4.551983833312988, 4.573895454406738, 3.0142345428466797, 4.624921798706055, 3.4331541061401367, 4.483516216278076, 3.5073108673095703, 1.7782986164093018, 4.087821006774902, 4.422914505004883, 1.781771183013916, 3.595541000366211, 1.3599108457565308, 4.239243507385254, 5.854596138000488, 3.2330665588378906, 3.962944507598877, 2.631474256515503, 3.1121480464935303, 4.387513160705566, 5.491522789001465, 2.666893482208252, 3.6849842071533203, 3.743051767349243, 4.33473014831543, 4.1382317543029785, 2.630114793777466, 4.073785305023193, 4.4156599044799805, 3.0505526065826416, 3.0343894958496094, 4.244548320770264, 3.556633949279785, 4.397510051727295, 5.04244327545166, 4.884440898895264, 1.4465062618255615, 3.354637622833252, 4.454654216766357, 1.3222016096115112, 2.4021379947662354, 5.0598859786987305, 5.766423225402832, 6.0669660568237305, 4.038768768310547, 6.070646286010742, 4.291622161865234, 2.593209743499756, 5.054876327514648, 6.4829912185668945, 2.1875972747802734, 4.108073711395264, 2.046146869659424, 2.195040702819824, 5.404623031616211, 3.6802978515625, 4.330349922180176, 4.543405532836914, 1.7148712873458862, 2.423985004425049, 3.5847182273864746, 5.643503189086914, 4.613306999206543, 6.315460205078125, 4.532344341278076, 2.582831621170044, 3.5568394660949707, 5.1542792320251465, 1.586488962173462, 5.473391532897949, 3.9910194873809814, 3.9006848335266113, 7.0849409103393555, 1.5694514513015747, 6.967430114746094, 3.9287962913513184, 4.961460113525391, 4.553676128387451, 4.890722274780273, 4.163438320159912, 4.260256767272949, 4.291888236999512, 3.651801109313965, 3.8796298503875732, 2.756232261657715, 3.793423652648926, 6.770336151123047, 1.4255211353302002, 5.299874305725098, 4.223451137542725, 1.5071499347686768, 6.17253303527832, 2.4757025241851807, 6.378934860229492, 4.166093826293945, 4.059502124786377, 7.021824836730957, 4.003268241882324, 4.963767051696777, 4.338545322418213, 2.8597476482391357, 6.183218955993652, 5.326067924499512, 4.450697422027588, 3.62861967086792, 3.7150216102600098, 4.301961898803711, 6.748984336853027, 4.184115409851074, 2.84629225730896, 1.594874382019043, 4.019465446472168, 3.8107612133026123, 4.758617877960205, 4.399703025817871, 3.3647310733795166, 3.88543701171875, 4.270716667175293, 5.62855339050293, 1.5347919464111328, 4.474246978759766, 3.4855237007141113, 3.5557379722595215, 5.3796892166137695, 4.433393955230713, 1.9664214849472046, 4.3585004806518555, 4.353857040405273, 3.5663862228393555, 4.252057075500488, 5.551637649536133, 4.304230213165283, 4.343073844909668, 2.065692901611328, 5.752276420593262, 2.9766857624053955, 3.2973098754882812, 4.038196563720703, 2.5002596378326416, 4.453817844390869, 7.091517448425293, 5.085714340209961, 5.929409027099609, 3.247377872467041, 4.521625995635986, 4.168796539306641, 4.012208461761475, 4.6597089767456055, 3.359983444213867, 2.857126235961914, 4.996077537536621, 6.846553802490234, 1.9788612127304077, 3.4982848167419434, 4.366124629974365, 5.133428573608398, 2.32782244682312, 4.406688213348389, 4.149277210235596, 5.970331192016602, 1.6854420900344849, 4.089301109313965, 6.799180507659912, 2.3591437339782715, 3.7117772102355957, 4.3132476806640625, 5.110054969787598, 4.329547882080078, 4.5677056312561035, 2.250425338745117, 4.502649784088135, 4.357370853424072, 4.430999755859375, 4.155341148376465, 1.4976725578308105, 6.601097106933594, 2.1156344413757324, 4.512895107269287, 5.881471633911133, 3.121486186981201, 2.249671697616577, 4.071201324462891, 4.395264625549316, 2.700623035430908, 4.496452331542969, 4.578899383544922, 3.5953516960144043, 3.5068368911743164, 6.759617805480957, 4.445155143737793, 4.355457782745361, 6.24528694152832, 4.01334810256958, 3.1470675468444824, 3.2819900512695312, 4.4579925537109375, 5.387111663818359, 3.236236572265625, 3.267516851425171, 3.948960781097412, 1.4810971021652222, 3.5609662532806396, 4.5628814697265625, 5.071683406829834, 2.4318501949310303, 3.524062156677246, 4.630815505981445, 3.383183479309082, 3.4454879760742188, 4.138335704803467, 4.55290412902832, 1.575202226638794, 3.3255257606506348, 4.816848278045654, 4.594959735870361, 5.606831073760986, 3.6404035091400146, 3.7511141300201416, 3.4937477111816406, 3.108394145965576, 6.04863166809082, 2.817197561264038, 4.1551737785339355, 3.9247243404388428, 2.2736308574676514, 2.3992624282836914, 5.064456939697266, 3.6719045639038086, 4.416315078735352, 2.936709403991699, 4.053696632385254, 2.841804265975952, 2.8150277137756348, 4.072852611541748, 3.1639273166656494, 4.083523750305176, 2.416684865951538, 2.008223056793213, 6.599559783935547, 3.8771302700042725, 4.76695442199707, 4.330484390258789, 3.5413968563079834, 4.4807209968566895, 4.40773868560791, 5.183446884155273, 4.339788436889648, 4.2154693603515625, 4.499879360198975, 5.121772766113281, 2.231842279434204]

 

 

 

 

 

参考资料:

1. https://github.com/devnag/pytorch-generative-adversarial-networks/blob/master/gan_pytorch.py

2. https://github.com/rcorbish/pytorch-notebooks/blob/master/gan-basic.ipynb

3. https://www.pytorchtutorial.com/pytorch-sample-gan/

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. Python持续点火,跟进还是观望?

    参加 2019 Python开发者日,请扫码咨询 ↑↑↑Python 这把火,到底烧了多久了?近日,李笑来带着他的 Python 编程书,一路狂收 Star、Fork,火速登顶 GitHub Trending 榜,直接 C 位出道。币圈大佬也玩 Python?或者,换句话说——Python,怎么又是你?早在 2015 年,知乎上就…...

    2024/4/27 13:51:41
  2. 深度学习(一)~常见激活函数

    深度学习(一)~常见激活函数常见激活函数1. Sigmoid型函数(1). Logistic函数(2). Tanh函数(3). Hard-Logistic函数和Hard-Tanh函数2. ReLU函数(1). Leaky ReLU(2). 带参数的ReLU(即PReLU)(3). ELU函数(4). Softplus函数3. Swish函数4. GELU函数5. Maxout单元 常见激活函数 为了…...

    2024/4/27 14:17:02
  3. Hibernate学习笔记:hibernate二级缓存攻略

    hibernate二级缓存对系统的性能影响巨大, 我没有这方面的经验,所以不打算写文章, 但是我看到了一篇好文章, 可以拿来学习. [原贴地址:http://www.javaeye.com/topic/18904]很多人对二级缓存都不太了解,或者是有错误的认识,我一直想写一篇文章介绍一下hibernate的二级缓存的,…...

    2024/4/19 12:39:11
  4. 哪种机械键盘更适合打游戏? 机械键盘5种常用机械轴详细介绍

    哪种机械键盘更适合打游戏? 机械键盘5种常用机械轴详细介绍 机械键盘 12-08(4)青轴 最具特点的就是青轴,青轴一般是打字员的梦想,很少用于游戏,不过是本人的最爱,特点是只有当声音响起的时候按键才被触发,因此打字的时候噼里啪啦,无论是指尖还是心理上都得到了极大满足。…...

    2024/4/27 15:21:19
  5. 机器学习基础 -[线性代数基础]

    1、矩阵与向量 (1)m*n维矩阵IRm∗nIR^{m*n}IRm∗n:(2)m维向量(IRmIR^{m}IRm):2、数据矩阵与参数矩阵数据矩阵中的每一行表示一条样本,参数矩阵中的每一列表示一个假设函数的参数向量...

    2024/4/27 17:21:22
  6. 神经网络常用激活函数总结

    神经网络中如果不加入激活函数,其一定程度可以看成线性表达,最后的表达能力不好,如果加入一些非线性的激活函数,整个网络中就引入了非线性部分,增加了网络的表达能力。目前比较流行的激活函数主要分为以下7种:1.sigmoid2.tanh3.ReLu4.Leaky ReLu5.PReLu6.RReLu7 Maxout8 …...

    2024/4/27 16:15:57
  7. 提升电磁兼容性的软件策略:EMC不只是硬件工程师的锅

    关注、星标嵌入式客栈,加群请添加作者微信[导读] EMC( Electromagnetic Compatibility) 电磁兼容性对于一个产品而言是一个非常重要的性能指标,一个产品遇到EMC的坑,很多测试很难通过,很多软件同学可能会觉得EMC更多的是硬件攻城师要去应对的难题,与软件没毛关系。个人认为…...

    2024/4/27 16:50:21
  8. 数学 线性代数

    索引开始向量矩阵行列式特征值和特征向量结束 开始 研究对象:向量、矩阵、行列式; 线性:一次形式来表达的; 代数:符号替代元素和运算; https://www.jianshu.com/p/21aea5108d83 pdf:线性代数的几何意义 向量 向量的矩阵表示法,向量的模,单位向量,法向量 在自由向量的意…...

    2024/4/27 16:30:06
  9. Hibernate二级缓存和查询缓存的简单测试

    利用二级缓存和查询缓存结合缓存一些属性,通过query.list()方法返回属性列表。 首先在hibernate.cfg.xml开启二级缓存和查询缓存:<?xml version=1.0 encoding=UTF-8?> <!DOCTYPE hibernate-configuration PUBLIC"-//Hibernate/Hibernate Configuration DTD 3.…...

    2024/4/27 17:19:05
  10. hibernate进二阶之理解二级缓存

    Hibernate提供了基于应用程序级别(进程)的缓存, 可以跨多个session,即不同的session都可以访问缓存数据。 这个换存也叫二级缓存。 Hibernate提供的二级缓存有默认的实现,且是一种可插配的缓存框架!如果用户想用二级缓存,只需要在hibernate.cfg.xml中配置即可; 不想用,直…...

    2024/4/27 16:20:00
  11. 基于Silverlight4开发的工作流设计器

    好久没有更新案例了,下面上传一款基于Silverlight4开发的工作流设计器,这个工作流设计器适用于办公自动化系统和相关MIS系统,本工作流设计器集合了两大系统UI特色,下面请大家看一下界面效果。 Silverlight工作流登录窗口:登录窗口2:登录信息提示:流程设计器界面:动态菜…...

    2024/4/17 8:25:46
  12. 编程游戏:划拳机器人比赛-{ 咱们园子是否应该设立一个算法挑战/编程竞赛的平台? }...

    网友王集鹄组织了一个编程比赛:划拳机器人比赛。类似“Robocode” 的游戏。 早先Microsoft就推出过一款名为Terrarium的code game,其实这种游戏已经有相当久的历史了,很多人都将其看成是那些hacker们的游戏。 ------- 比赛相关帖子如下: 【编程游戏】编写一个会划拳的机器…...

    2024/4/17 8:24:35
  13. 深度学习(五)——解决梯度消失的三个思路

    1. 什么是梯度消散? 如下图u介绍,当用sigmod函数时,当z过大或过小会发现梯度(斜率)接近水平,变成0了,即梯度消失2. 解决方法 思路一使用relu函数,因为relu函数z小于0是,结果恒为0,z大于0时,结果为z本身,这样就是一条45度的直线,梯度永远不变,即不会消失 不饱和激…...

    2024/4/18 15:49:34
  14. 批量标准化(批量归一化)(BatchNormalization)

    批量标准化(批量归一化)(BatchNormalization) 由于翻译的缘故,归一化和标准化其实有别,个人认为应该叫成批量标准化,为防止歧义的原因,以下我将用BatchNormalization,而不用中文 背景 尽管使用He初始化和ELU(或任何 ReLU变体)可以显著减少训练开始阶段的梯度消失/爆炸…...

    2024/3/31 20:17:36
  15. 1000套电子物联网专业毕业设计和电赛设计资料822份

    1000套物联网毕业设计资料和电赛设计资料822,大四同学马上要写毕业设计了,我把之前收藏的毕业设计资料分享给大家,供大家学习参考。如果出现解压问题,联系管理员毕业设计及产品设计资料:其他资料:0001、PC 机与单片机通信(RS232 协议)0002、C与VB语言联合在proteus上仿真…...

    2024/4/17 8:26:54
  16. 线性代数(二)——矩阵乘法

    2 Matrix Multiplication(矩阵的乘法)原文PDF下载地址:https://download.csdn.net/download/a794922102/11109742矩阵A∈RmnA \in \mathbb{R}^{m \times n}A∈Rmn,矩阵B∈RnpB \in \mathbb{R}^{n \times p}B∈Rnp,相乘得到矩阵C=AB∈RmpC=AB \in \mathbb{R}^{m \times p}C=AB…...

    2024/4/17 8:25:59
  17. python包Toil---跨平台工作流管理系统

    简介Toil是一个开源的纯python开发的工作流引擎运行执行CWL工作流以及WDL工作流,允许跨平台开发测试部署官网: https://toil.readthedocs.io/en/latest/环境安装toil目前仅支持python2.7,且需要virtualenv才可以安装如果不是集群可以如下安装sudo pip install virtualenv v…...

    2024/4/17 22:31:17
  18. 对话“第二人生”创始人:这不是一款游戏

    对话“第二人生”创始人:这不是一款游戏 2007-07-23 07:10:27 来源: 东方网(上海) 网友评论 0 条 进入论坛在许多方面,“第二人生”可以看作互联网完善过程中的一步。在“第二人生”中,人们可以在一个三维的环境中创造一个世界,并且互相交流。 “第二人生”用户和他们的虚…...

    2024/4/19 10:42:02
  19. MIT线性代数Linear Algebra公开课笔记 第四讲 矩阵的LU分解(lecture 4 Factorization into A = LU)

    本节是Gilbert Strang的MIT线性代数Linear Algebra公开课中【第四讲 矩阵的LU分解(lecture 4 Factorization into A = LU)】的笔记,参考他在 MIT Linear Algebra课程网站上公开分享的 lecture summary (PDF) 和 Lecture video transcript (PDF)等文档,整理笔记如下,笔记中…...

    2024/4/17 8:26:30
  20. R语言空间插值的几种方法及案例应用

    作者简介勾蒙蒙,R语言资深爱好者。个人公众号: R语言及生态系统服务。前文传送门:脏数据-数据量纲差异地形图绘制##加载程序包library(raster)library(sp)library(rgdal)library(gstat)library(raster)library(maptools)##设置工作空间setwd("C:/Users/lx/Desktop/sun&…...

    2024/3/31 20:17:32

最新文章

  1. 【Godot4.2】有序和无序列表函数库 - myList

    概述 在打印输出或其他地方可能需要构建有序或无序列表。本质就是构造和维护一个纯文本数组。并用格式化文本形式&#xff0c;输出带序号或前缀字符的多行文本。 为此我专门设计了一个类myList&#xff0c;来完成这项任务。 代码 以下是myList类的完整代码&#xff1a; # …...

    2024/4/27 18:38:59
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. 从头开发一个RISC-V的操作系统(二)RISC-V 指令集架构介绍

    文章目录 前提ISA的基本介绍ISA是什么CISC vs RISCISA的宽度 RISC-V指令集RISC-V ISA的命名规范模块化的ISA通用寄存器Hart特权级别内存管理与保护异常和中断 目标&#xff1a;通过这一个系列课程的学习&#xff0c;开发出一个简易的在RISC-V指令集架构上运行的操作系统。 前提…...

    2024/4/24 5:34:22
  4. JVM笔记

    1.JVM与Java体系结构 1.1. 前言 作为Java工程师的你曾被伤害过吗&#xff1f;你是否也遇到过这些问题&#xff1f; 运行着的线上系统突然卡死&#xff0c;系统无法访问&#xff0c;甚至直接OOM想解决线上JVM GC问题&#xff0c;但却无从下手新项目上线&#xff0c;对各种JVM…...

    2024/4/26 0:12:59
  5. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/4/26 18:09:39
  6. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/4/26 20:12:18
  7. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/4/26 23:05:52
  8. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/4/27 4:00:35
  9. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/4/27 17:58:04
  10. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/4/27 14:22:49
  11. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/4/26 21:56:58
  12. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/4/27 9:01:45
  13. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/4/27 17:59:30
  14. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/4/25 18:39:16
  15. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/4/25 18:39:16
  16. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/4/26 19:03:37
  17. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/4/26 22:01:59
  18. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/4/25 18:39:14
  19. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/4/26 23:04:58
  20. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/4/25 2:10:52
  21. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/4/25 18:39:00
  22. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/4/26 19:46:12
  23. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/4/27 11:43:08
  24. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/4/27 8:32:30
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57