[阿里DIN] 从论文源码学习 之 embedding层如何自动更新

文章目录

  • [阿里DIN] 从论文源码学习 之 embedding层如何自动更新
    • 0x00 摘要
    • 0x01 DIN源码
      • 1.1 问题
      • 1.2 答案
    • 0x02 原理
      • 2.1 随机梯度下降SGD
      • 2.2 反向传播
      • 2.3 自动求导
    • 0x03 优化器
      • 3.1 Optimizer基类
      • 3.2 反向传播过程
        • 3.2.1 compute_gradients
        • 3.2.2 gradients
        • 3.2.3 apply_gradients
      • 3.3 AdamOptimizer
        • 3.3.1 _prepare
        • 3.3.2 _create_slots
    • 0x04 Session.run
    • 0xFF 参考

0x00 摘要

Deep Interest Network(DIN)是阿里妈妈精准定向检索及基础算法团队在2017年6月提出的。其针对电子商务领域(e-commerce industry)的CTR预估,重点在于充分利用/挖掘用户历史行为数据中的信息。

本系列文章解读论文以及源码,顺便梳理一些深度学习相关概念和TensorFlow的实现。

本文通过DIN源码 https://github.com/mouna99/dien 分析,来深入展开看看embedding层如何自动更新。

0x01 DIN源码

1.1 问题

在上文中,我们分析了embedding层的作用,但是留了一个问题尚未解答:

  • 如何更新mid_embeddings_var这样的embedding层?

即DIN代码中,如下变量怎么更新

self.uid_embeddings_var = tf.get_variable("uid_embedding_var", [n_uid, EMBEDDING_DIM])
self.mid_embeddings_var = tf.get_variable("mid_embedding_var", [n_mid, EMBEDDING_DIM])
self.cat_embeddings_var = tf.get_variable("cat_embedding_var", [n_cat, EMBEDDING_DIM])   

因为在DIN中,只有这一处初始化 embeddings 的地方,没有找到迭代更新的代码,这会给初学者带来一些困扰。

1.2 答案

先简要说一下答案,embedding层通过 optimizer 进行更新(自动求导),通过 session.run 进行调用更新

一般意义的 embedding 大多是神经网络倒数第二层的参数权重,只具有整体意义和相对意义,不具备局部意义和绝对含义,这与 embedding 的产生过程有关,

任何 embedding 一开始都是一个随机数,然后随着优化算法,不断迭代更新,最后网络收敛停止迭代的时候,网络各个层的参数就相对固化,得到隐层权重表(此时就相当于得到了我们想要的 embedding),然后在通过查表可以单独查看每个元素的 embedding。

DIN中对应代码如下:

# 优化更新(自动求导)
self.optimizer = tf.train.AdamOptimizer(learning_rate=self.lr).minimize(self.loss)......# 通过 session.run 进行调用更新def train(self, sess, inps):if self.use_negsampling:loss, accuracy, aux_loss, _ = sess.run([self.loss, self.accuracy, self.aux_loss, self.optimizer], feed_dict={self.uid_batch_ph: inps[0],self.mid_batch_ph: inps[1],self.cat_batch_ph: inps[2],self.mid_his_batch_ph: inps[3],self.cat_his_batch_ph: inps[4],self.mask: inps[5],self.target_ph: inps[6],self.seq_len_ph: inps[7],self.lr: inps[8],self.noclk_mid_batch_ph: inps[9],self.noclk_cat_batch_ph: inps[10],})return loss, accuracy, aux_losselse:loss, accuracy, _ = sess.run([self.loss, self.accuracy, self.optimizer], feed_dict={self.uid_batch_ph: inps[0],self.mid_batch_ph: inps[1],self.cat_batch_ph: inps[2],self.mid_his_batch_ph: inps[3],self.cat_his_batch_ph: inps[4],self.mask: inps[5],self.target_ph: inps[6],self.seq_len_ph: inps[7],self.lr: inps[8],})return loss, accuracy, 0

这涉及的部分很多,我们需要一一阐释。

0x02 原理

大多数机器学习(深度学习)任务就是最小化损失,在损失函数定义好的情况下,使用一种优化器进行求解最小损失。

而为了让loss下降,深度学习框架常见的优化方式一般采用的是梯度下降(Gradient Descent)算法,这要求对loss公式上的每个op都需要求偏导,然后使用链式法则结合起来

2.1 随机梯度下降SGD

给定一个可微函数,理论上可以用解析法找到它的最小值:函数的最小值是导数为 0 的点,因此你只需找到所有导数为 0 的点,然后计算函数在其中哪个点具有最小值。

将这一方法应用于神经网络,就是用解析法求出最小损失函数对应的所有权重值。可以通过对方程 gradient(f)(W) = 0 求解 W 来实现这一方法。

即使用基于梯度的优化方式进行求解,基于当前在随机数据批量上的损失,一点一点地对参数进行调节。由于处理的是一个可微函数,你可以计算出它的梯度,然后沿着梯度的反方向更新权重,损失每次都会变小一点。

  1. 抽取训练样本 x 和对应目标y 组成的数据批量。
  2. 在 x 上运行网络,得到预测值 y_pred。
  3. 计算网络在这批数据上的损失,用于衡量 y_pred 和 y 之间的距离。
  4. 计算损失相对于网络参数的梯度[一次反向传播(backward pass)]。
  5. 将参数沿着梯度的反方向移动一点,比如 W -= step * gradient,从而使这批数据
    上的损失减小一点。

这就叫作小批量随机梯度下降(mini-batch stochastic gradient descent,又称为小批量SGD)。

术语随机(stochastic)是指每批数据都是随机抽取的(stochastic 是random在科学上的同义词)。

2.2 反向传播

反向传播 算法的训练过程则是根据网络计算得到的 Y_out 和实际的真实结果 Y_label 来计算误差,并且沿着网络反向传播来调整公式中的所有 Wi 和 bi,使误差达到最小。强调一下,深度学习里面 BP 的本质目标是让误差达到最小,所以要用误差对中间出现过的所有影响因素求偏导。

通过反向传播算法优化神经网络是一个迭代的过程

  • 在每次迭代的开始,首先需要选取一小部分训练数据,这一小部分数据叫做一个batch。
  • 然后,这个batch 的样例会通过前向传播算法得到神经网络模型的预测结果。因为训练数据都是有正确答案标注的,所以可以计算出当前神经网络模型的预测答案与正确答案之间的差距,计算误差和损失函数。
  • 最后,基于这预测值和真实值之间的差距,反向传播算法会相应更新神经网络参数的取值,使得在这个batch 上神经网络模型的预测结果和真实答案更加接近。即首先计算输出层神经元损失函数的梯度,然后计算隐藏层神经元损失函数的梯度。接下来用梯度更新权重。

前向求导是从第一层开始,逐层计算梯度 ∂ / ∂X 到最后一层。反向求导是从最后一层开始,逐层计算梯度 ∂Z / ∂ 到第一层。前向求导关注的是输入是怎么影响到每一层的,反向求导则是关注于每一层是怎么影响到最终的输出结果的。

2.3 自动求导

自动求导就是每一个op/layer自己依据自己的输入和输出做前向计算/反向求导,而框架则负责组装调度这些op/layer,表现出来就是你通过框架去定义网络/计算图,框架自动前向计算并自动求导

常见的深度学习框架里每个op(op指的是最小的计算单元,caffe里叫layer)都预先定义好了 forward 和backward(或者叫grad)两个函数,这里的 backward 也就是求导。也就是说每个op的求导都是预先定义好的,或者说是人手推的。

当你定义好了一个神经网络,常见的深度学习框架将其解释为一个dag(有向无环图),dag里每个节点就是op,从loss function这个节点开始,通过链式法则一步一步从后往前计算每一层神经网络的梯度,整个dag梯度计算的最小粒度就是op的 backward 函数(这里是手动的),而链式法则则是自动的。

TensorFlow也是如此。

TensorFlow 提供的是声明式的编程接口,用户不需要关心求导的细节,只需要定义好模型得到一个loss方程,然后使用TensorFlow实现的各种Optimizer来进行运算即可。

这要求TensorFlow本身提供了每个op的求偏导方法,而且虽然我们使用的是Python的加减乘除运算符,实际上是TensorFlow重载了运算符实际上会创建“Square”这样的op,可以方便用户更容易得构建表达式。

因此TensorFlow的求导,实际上是先提供每一个op求导的数学实现,然后使用链式法则求出整个表达式的导数。

具体我们可以参见RegisterGradient的实现,以及nn_grad.py,math_grad.py等几个文件

这些文件的所有的函数都用RegisterGradient装饰器包装了起来,这些函数都接受两个参数,op和grad。其他的只要注册了op的地方也有各种使用这个装饰器,例如batch。

RegisterGradient使用举例如下:

@ops.RegisterGradient("Abs")
def _AbsGrad(op, grad):x = op.inputs[0]return grad * math_ops.sign(x)

RegisterGradient定义如下,就是注册op梯度函数的装饰器:

class RegisterGradient(object):def __init__(self, op_type):if not isinstance(op_type, six.string_types):raise TypeError("op_type must be a string")self._op_type = op_typedef __call__(self, f):"""Registers the function `f` as gradient function for `op_type`."""_gradient_registry.register(f, self._op_type)return f

0x03 优化器

道理说着还不错,但是神经网络是究竟怎么反向传递更新呢?这就需要看Optimizer了。

回到 TensorFlow 的 Python 代码层面,自动求导的部分是靠各种各样的 Optimizer 串起来的

  • 构图的时候只需要写完前向的数据流图部分,TensorFlow 的做法是每一个 Op 在建图的时候就同时包含了它的梯度计算公式,构成前向计算图的时候会自动建立反向部分的计算图,前向计算出来的输入输出会保留下来,留到后向计算的时候用完了才删除。
  • 然后在最后加上一个 Optimizer(例如 GradientDescentOptimizer、AdamOptimizer).
  • 最后调用它的 minimize() 方法就会自动完成反向部分的数据流图构建。

在DIEN这里,代码如下:

ctr_loss = - tf.reduce_mean(tf.log(self.y_hat) * self.target_ph)
self.loss = ctr_loss
if self.use_negsampling:self.loss += self.aux_loss
self.optimizer = tf.train.AdamOptimizer(learning_rate=self.lr).minimize(self.loss)

3.1 Optimizer基类

TF的optimizer都继承自Optimizer这个类,这个类的方法非常多,几个重要方法是 minimize、compute_gradients、apply_gradients、slot系列。

  • compute_gradients: 传入loss,如果不传入var_list,那么默认就是所有trainable的variable,返回的是 list of (gradient, variable) pairs。
  • apply_gradients: 传入 (gradient, variable) pairs,将梯度apply到变量上。具体梯度如何更新到变量,由 _apply_dense、_resource_apply_dense、_apply_sparse、_resource_apply_spars这四个方法实现。
  • minimize:就是compute_gradients + apply_gradients
  • slot系列: 输入变量和name,得到的是一个 trainable=False的变量,用来记录optimizer中的中间值,比如在Momentum中,记录momentum。

Optimizer 基类的这个方法为每个实现子类预留了_create_slots()_prepare()_apply_dense()_apply_sparse()四个接口出来,后面新构建的 Optimizer 只需要重写或者扩展 Optimizer 类的某几个函数即可;

3.2 反向传播过程

整个反向传播过程可分为三步,这三步仅需通过一个minimize()函数完成:

  • 逐层计算每一个部分的梯度,compute_gradients();
  • 根据需要对梯度进行处理;
  • 把梯度更新到参数上,apply_gradients(); 即往最小化 loss 的方向更新 var_list 中的每一个参数;

代码如下:

def minimize(self, loss, global_step=None, var_list=None,gate_gradients=GATE_OP, aggregation_method=None,colocate_gradients_with_ops=False, name=None,grad_loss=None):grads_and_vars = self.compute_gradients(loss, var_list=var_list, gate_gradients=gate_gradients,aggregation_method=aggregation_method,colocate_gradients_with_ops=colocate_gradients_with_ops,grad_loss=grad_loss)vars_with_grad = [v for g, v in grads_and_vars if g is not None]return self.apply_gradients(grads_and_vars, global_step=global_step, name=name)

3.2.1 compute_gradients

该函数用于计算loss对于可训练变量val_list的梯度,最终返回的是元组列表,即 [(gradient, variable),…]。

参数含义:

  • loss: 需要被优化的Tensor
  • val_list: Optional list or tuple of tf.Variable to update to minimize loss. Defaults to the list of variables collected in the graph under the key GraphKeys.TRAINABLE_VARIABLES.

基本逻辑如下:

  • 根据原本计算图中所有的 op 创建一个顺序的 var_list。即自动找到计算图中所有的 trainable_variables 放到 var_list 里面去,这些就是整个网络中的参数
  • 反向遍历这个list,对每个需要求导并且能够求导的op(即已经定义好了对应的梯度函数的op)调用其梯度函数;
  • 然后沿着原本计算图的方向反向串起另一部分的计算图(输入输出互换,原本的数据 Tensor 换成梯度 Tensor);即,往图中插入一个 gradients 的 Op,所以反向求导的这个串图的过程就是在这里完成的了;

其中,_get_processor函数可理解为一种快速更新variables的方法,每个processor都会包含一个update_op这样的函数来进行variable更新操作。

变量更新公式:

在这里插入图片描述

代码如下:

def compute_gradients(self, loss, var_list=None,gate_gradients=GATE_OP,aggregation_method=None,colocate_gradients_with_ops=False,grad_loss=None):self._assert_valid_dtypes([loss])if grad_loss is not None:self._assert_valid_dtypes([grad_loss])if var_list is None:var_list = (variables.trainable_variables() +ops.get_collection(ops.GraphKeys.TRAINABLE_RESOURCE_VARIABLES))else:var_list = nest.flatten(var_list)var_list += ops.get_collection(ops.GraphKeys._STREAMING_MODEL_PORTS)processors = [_get_processor(v) for v in var_list]var_refs = [p.target() for p in processors]grads = gradients.gradients(loss, var_refs, grad_ys=grad_loss,gate_gradients=(gate_gradients == Optimizer.GATE_OP),aggregation_method=aggregation_method,colocate_gradients_with_ops=colocate_gradients_with_ops)if gate_gradients == Optimizer.GATE_GRAPH:grads = control_flow_ops.tuple(grads)grads_and_vars = list(zip(grads, var_list))return grads_and_vars

3.2.2 gradients

gradients 的实际定义在 tensorflow/python/ops/gradients_impl.py 中。把整个求导过程抽象成一个 ys=f(xs) 的函数。

简单说,它就是为了计算一组输出张量ys = [y0, y1, ...]对输入张量xs = [x0, x1, ...]的梯度,对每个xigrad_i = sum[dy_j/dx_i for y_j in ys]。默认情况下,grad_lossNone,此时grad_ys被初始化为全1向量。

gradients 部分参数如下:

  • xs 就是 var_list 里面输入的变量列表(在这个过程中其实这里存的是每个变量对应过来在计算图中的 op)。
  • 参数中的ys是loss,是是计算损失值的张量,也就是用户业务逻辑最后生成的Tensor的最终节点,从这个节点反推,可以导出全部Graph。
  • grad_ys存储计算出的梯度;
  • gate_gradients是一个布尔变量,指示所有梯度是否在使用前被算出,如果设为True,可以避免竞争条件;

这个方法会维护两个重要变量

  • 一个队列queue,队列里存放计算图里所有出度为0的操作符
  • 一个字典grads,字典的键是操作符本身,值是该操作符每个输出端收到的梯度列表

反向传播求梯度时,每从队列中弹出一个操作符,都会把它输出变量的梯度加起来(对应全微分定理)得到out_grads,然后获取对应的梯度计算函数grad_fn。操作符op本身和out_grads会传递给grad_fn做参数,求出输入的梯度。

基本逻辑如下:

  • 根据原本计算图中所有的 op 创建一个顺序的 list,这个顺序在图上来说其实也是拓扑序;
  • 反向遍历这个 list,对每个需要求导并且能够求导的 op(即已经定义好了对应的梯度函数的 op)调用其梯度函数;
  • 然后沿着原本图的方向反向串起另一部分的计算图即可(输入输出互换,原本的数据 Tensor 换成梯度 Tensor);

具体代码如下:

def gradients(ys,xs,grad_ys=None,name="gradients",colocate_gradients_with_ops=False,gate_gradients=False,aggregation_method=None,stop_gradients=None):to_ops = [t.op for t in ys]from_ops = [t.op for t in xs]grads = {}# Add the initial gradients for the ys.for y, grad_y in zip(ys, grad_ys):_SetGrad(grads, y, grad_y)# Initialize queue with to_ops.queue = collections.deque()# Add the ops in 'to_ops' into the queue.to_ops_set = set()        for op in to_ops:ready = (pending_count[op._id] == 0)if ready and op._id not in to_ops_set:to_ops_set.add(op._id)queue.append(op)   while queue:# generate gradient subgraph for op.op = queue.popleft()with _maybe_colocate_with(op, colocate_gradients_with_ops):if loop_state:loop_state.EnterGradWhileContext(op, before=True)out_grads = _AggregatedGrads(grads, op, loop_state, aggregation_method)if loop_state:loop_state.ExitGradWhileContext(op, before=True)     if has_out_grads and (op._id not in stop_ops):if is_func_call:func_call = ops.get_default_graph()._get_function(op.type)grad_fn = func_call.python_grad_funcelse:try:grad_fn = ops.get_gradient_function(op)for i, (t_in, in_grad) in enumerate(zip(op.inputs, in_grads)):if in_grad is not None:if (isinstance(in_grad, ops.Tensor) andt_in.dtype != dtypes.resource):try:in_grad.set_shape(t_in.get_shape())_SetGrad(grads, t_in, in_grad)if loop_state:loop_state.ExitGradWhileContext(op, before=False)                  

3.2.3 apply_gradients

该函数的作用是将compute_gradients()返回的值作为输入参数对variable进行更新,即根据前面求得的梯度,把梯度进行方向传播给weights和biases进行参数更新。

那为什么minimize()会分开两个步骤呢?原因是因为在某些情况下我们需要对梯度做一定的修正,例如为了防止梯度消失(gradient vanishing)或者梯度爆炸(gradient explosion),我们需要事先干预一下以免程序出现Nan的尴尬情况;有的时候也许我们需要给计算得到的梯度乘以一个权重或者其他乱七八糟的原因,所以才分开了两个步骤。

基本逻辑如下:

  • 对于g, v, p(grads, vars, processors),把它们整合在 tuple(converted_grads_and_vars);
  • 遍历参数列表 v,对于每一个参数应用 self._create_slots函数,以创建一些优化器自带的一些参数;
  • 调用 prepare()函数,在apply梯度前创建好所有必须的tensors;
  • 遍历 grad, var, processor in converted_grads_and_vars,应用 ops.colocate_with(var),作用是保证每个参数var的更新都在同一个device上;
  • ops.control_dependencies()函数用来控制计算流图的,给图中的某些节点指定计算的顺序;
  • 对每个 variable 本身应用 assign,体现在update_ops.append(processor.update_op(self, grad)),如果有global_step的话,global_step需加个1。
  • 最后将返回一个train_optrain_op是通常训练过程中,client为session的fetches提供的参数之一,也就是这个Operation被执行之后,模型的参数将会完成更新,并开始下一个batch的训练。那么这也就意味着,这个方法中涉及到的计算图将会实现说明文档中的训练逻辑。

具体代码是:

def apply_gradients(self, grads_and_vars, global_step=None, name=None):grads_and_vars = tuple(grads_and_vars)  # Make sure repeat iteration works.converted_grads_and_vars = []for g, v in grads_and_vars:if g is not None:# Convert the grad to Tensor or IndexedSlices if necessary.g = ops.convert_to_tensor_or_indexed_slices(g)p = _get_processor(v)converted_grads_and_vars.append((g, v, p))converted_grads_and_vars = tuple(converted_grads_and_vars)var_list = [v for g, v, _ in converted_grads_and_vars if g is not None]with ops.control_dependencies(None):self._create_slots([_get_variable_for(v) for v in var_list])update_ops = []with ops.name_scope(name, self._name) as name:self._prepare()for grad, var, processor in converted_grads_and_vars:if grad is None:continuescope_name = var.op.name if context.in_graph_mode() else ""with ops.name_scope("update_" + scope_name), ops.colocate_with(var):update_ops.append(processor.update_op(self, grad))if global_step is None:apply_updates = self._finish(update_ops, name)else:with ops.control_dependencies([self._finish(update_ops, "update")]):with ops.colocate_with(global_step):apply_updates = state_ops.assign_add(global_step, 1, name=name).optrain_op = ops.get_collection_ref(ops.GraphKeys.TRAIN_OP)if apply_updates not in train_op:train_op.append(apply_updates)return apply_updates

3.3 AdamOptimizer

DIEN使用的是AdamOptimizer优化器

Adam 这个名字来源于自适应矩估计Adaptive Moment Estimation),也是梯度下降算法的一种变形,但是每次迭代参数的学习率都有一定的范围,不会因为梯度很大而导致学习率(步长)也变得很大,参数的值相对比较稳定。

概率论中矩的含义是:如果一个随机变量 X 服从某个分布,X 的一阶矩是 E(X),也就是样本平均值,X 的二阶矩就是 E(X^2),也就是样本平方的平均值。

Adam 算法利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率。TensorFlow提供的tf.train.AdamOptimizer可控制学习速度,经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳。

在利用计算好的导数对权重进行修正时,对Embedding矩阵的梯度进行特殊处理,只更新局部,见optimization.py中Adagrad.update函数。

3.3.1 _prepare

_prepare函数中通过convert_to_tensor方法来存储了输入参数的 Tensor 版本。

  def _prepare(self):self._lr_t = ops.convert_to_tensor(self._lr, name="learning_rate")self._beta1_t = ops.convert_to_tensor(self._beta1, name="beta1")self._beta2_t = ops.convert_to_tensor(self._beta2, name="beta2")self._epsilon_t = ops.convert_to_tensor(self._epsilon, name="epsilon")

3.3.2 _create_slots

_create_slots 函数用来创建参数,比如 _beta1_power,_beta2_power

  def _create_slots(self, var_list):first_var = min(var_list, key=lambda x: x.name)create_new = self._beta1_power is Noneif not create_new and context.in_graph_mode():create_new = (self._beta1_power.graph is not first_var.graph)if create_new:with ops.colocate_with(first_var):self._beta1_power = variable_scope.variable(self._beta1,name="beta1_power",trainable=False)self._beta2_power = variable_scope.variable(self._beta2,name="beta2_power",trainable=False)# Create slots for the first and second moments.for v in var_list:self._zeros_slot(v, "m", self._name)self._zeros_slot(v, "v", self._name)

函数**_apply_dense_resource_apply_dense的实现中分别使用了training_ops.apply_adamtraining_ops.resource_apply_adam**方法。

函数**_apply_sparse_resource_apply_sparse主要用在稀疏向量的更新操作上,而具体的实现是在函数_apply_sparse_shared**中。

_apply_sparse_shared 函数,首先获取所需要的参数值并存储到变量里,接着按照 Adam 算法的流程,首先计算学习率[公式],接着计算两个 Momentum ,由于是稀疏 tensor 的更新,所以在算出更新值之后要使用**scatter_add来完成加法操作, 最后将var_updatem_tv_t的更新操作放进control_flow_ops.group**中。

0x04 Session.run

优化器已经搭建好,剩下就是调用 session.run 进行更新。

调用一次 run 是执行一遍数据流图, 在 TensorFlow 的训练代码中通常是在一个循环中多次调用 sess.run(),一次 run 即为训练过程中的一步。

fetches 是 run 方法的一个输入参数,这个参数可以是很多种形式的数据,run 最后的 返回值也会和 fetches 有相同的结构。

至此,DIN分析暂时告一段落,下篇开始 DIEN 的分析,敬请期待。

0xFF 参考

TensorFlow SyncReplicasOptimizer 解读

tensorflow中有向图(计算图、Graph)、上下文环境(Session)和执行流程

TensorFlow 拆包(一):Session.Run ()

TensorFlow 源码大坑(2) Session

tensorflow源码分析(五)session.run()

Tensorflow中优化器–AdamOptimizer详解

【TensorFlow】优化器AdamOptimizer的源码分析

图解tensorflow源码

TensorFlow中Session、Graph、Operation以及Tensor详解

TensorFlow 拆包(二):TF 的数据流模型实现以及自动求导

分布式Tensorflow中同步梯度更新tf.train.SyncReplicasOptimizer解读(backup_worker的用法)

TensorFlow实战系列3–实现反向传播

Optimizer in Tensorflow

tensorflow optimizer源码阅读笔记

TensorFlow学习笔记之–[compute_gradients和apply_gradients原理浅析]

tensorflow学习(三)

Tensorflow 是如何求导的?

道理我都懂,但是神经网络反向传播时的梯度到底怎么求?

TensorFlow的自动求导具体是在哪部分代码里实现的?

TensorFlow SyncReplicasOptimizer 解读

神经网络中利用矩阵进行反向传播运算的实质

★★★★★★关于生活和技术的思考★★★★★★
微信公众账号:罗西的思考
如果您想及时得到个人撰写文章的消息推送,或者想看看个人推荐的技术资料,可以扫描下面二维码(或者长按识别二维码)关注个人公众号)。

在这里插入图片描述

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 程序员建议读的十本书

    第一名:《代码大全(第二版)》 第2版的《代码大全》是著名IT畅销书作者史蒂夫迈克康奈尔11年前的经典著作的全新演绎:第2版不是第一版的简单修订增补,而是完全进行了重写;增加了很多与时俱进的内容。这也是一本完整的软件构建手册…...

    2024/4/30 4:16:59
  2. SpringBoot启动类及其原理的分析

    本文分析SpringBoot启动类及其原理主要是从一下俩个方面来分析的 解析SpringBootApplication解析run方法 解析SpringBootApplication SpringBootConfiguration 首先这是一个配置类,继承于Configuration,本身只是说明这是一个SpringBoot项目的配置类&am…...

    2024/5/6 10:19:12
  3. 为网络工程师考试的笔记(三)

    时间越来越近,笔记要加快总结,准备今天看看往年的试卷,今天也是满满的一天,祝和我一起努力的小白坚持下去,努力,不负青春,不负自己就好。 网络安全: 1,可靠性&#xff1a…...

    2024/4/9 6:35:42
  4. CCC 加拿大国赛第一轮S组t3 Unfriend--zhengjun

    树形 dpdpdp 用 fif_ifi​ 表示在编号为 iii 的子树中共有多少种方案。 显然&#xff0c;fu∏v⊆sonufv1f_u\prod\limits_{v\subseteq son_u}{f_v}1fu​v⊆sonu​∏​fv​1 后面的那个 111 就是考虑自身不要的情况。最后答案要减掉这个 111 代码 #include<cstdio> u…...

    2024/4/9 6:35:41
  5. vue 文件导出

    <div class"upload-button" click"handleExportList()">批量导出</div>//批量导出handleExportList() {const params {areaId: this.staffLsitForm.area_id,isSalesman: this.staffLsitForm.is_salesman,mobile: this.staffLsitForm.mobile,n…...

    2024/4/25 9:04:57
  6. 再聊VUE框架

    再聊VUE框架 1. nextTick 在下次dom 更新循环结束之后执⾏延迟回调&#xff0c;可⽤于获取更新后的 dom 状态 新版本中默认是mincrotasks , v-on中会使⽤ macrotasks macrotasks任务的实现: setImmediate / MessageChannel / setTimeout 2. ⽣命周期 init initLifecycle/Event…...

    2024/4/9 6:35:41
  7. 【Storm 学习小事列】

    一、Storm模型 重要概念:niubus、supervisor、worker、executor、task 二、java编程模型 重要概念:topology、spout、blot、Tuple、stream、trident 1)topology是一个虚拟概念,包含spout和blot,被worker处理 2)spout 用来接收数据来源,作为storm流式处理中的开始端,…...

    2024/4/9 6:35:40
  8. Go的项目如何本地导包

    前言 本人在空余时间学习Go语言&#xff0c;在学习中&#xff0c;遇到了一些坑&#xff0c;再次记下 目录 疑问1&#xff1a;GOROOT与GOPATH为什么不能是同一路径疑问2&#xff1a;vendor文件夹存在的意义疑点3&#xff1a;GOPATH与GO module傻傻分不清楚疑点4&#xff1a;GO…...

    2024/4/9 6:35:40
  9. 反转单链表并打印

    class Node {public int data;public Node next; //存储对象引用public Node(int data) {this.data data; //没有初始化next的引用,不知道next当前指向哪个节点} }public class SingleList {public Node head;//定位头节点的引用public void addFirst(int data) {Node node …...

    2024/4/9 6:35:36
  10. 关于HTTP通信的全过程

    HTTP的相关概念 HTTP是处于应用层的协议&#xff0c;使用tcp传输层协议进行可靠的传送。因此&#xff0c;需要提醒的是&#xff0c;万维网是基于因特网的一种广泛因特网应用系统&#xff0c;且万维网采用的HTTP和HTTPS的传输协议&#xff0c;但因特网还有其他网络应用系统&…...

    2024/4/9 6:35:35
  11. 双十一淘客的玩法,双十一玩法讲解

    今天我们要讲的是双十一淘客该怎么做&#xff1f; 首先淘客的玩法分为三个&#xff0c;分别就是&#xff1a;超级红包、天天开彩蛋和预售&#xff0c;今年新增的玩法就是天天开彩蛋&#xff0c;其他的&#xff0c;前年都有、618的也有&#xff0c;这些的玩法和去年的玩法都差不…...

    2024/4/9 6:35:39
  12. 350. 两个数组的交集 II

    350. 两个数组的交集 II 给定两个数组&#xff0c;编写一个函数来计算它们的交集。 class Solution { public:vector<int> intersect(vector<int>& nums1, vector<int>& nums2) {vector<int> res;sort(nums1.begin(),nums1.end());sort(nums…...

    2024/4/9 6:35:35
  13. JS 二十四 错误

    JavaScript 错误 - throw、try 和 catch try 语句测试代码块的错误。 catch 语句处理错误。 throw 语句创建自定义错误。 finally 语句在 try 和 catch 语句之后&#xff0c;无论是否有触发异常&#xff0c;该语句都会执行。 JavaScript 错误 当 JavaScript 引擎执行 JavaS…...

    2024/4/9 6:35:32
  14. 学习c语言第一天

    学习c语言第一天 自我介绍 我是来自西安科技大学的一名本科生&#xff0c;我的名字简写很有趣&#xff1a;sss&#xff0c;可能以后会成为我的代号。今天是我学习c的第一天&#xff0c;也是我第一次在CSDN写博客&#xff0c;有点激动&#xff0c;也有点焦虑。因为有些功能我还…...

    2024/4/9 6:35:36
  15. OS-outline

    操作系统 【计算机系统概述】 概论&#xff1a; 特征 并发&#xff1a; 两个或多个事件在同一时间间隔发生。共享&#xff1a;资源共享。系统资源可供内存中多个并发执行的进程共同使用&#xff0c;互斥共享和同时访问方式。虚拟&#xff1a;虚拟处理器/虚拟内存/虚拟外部设…...

    2024/5/5 8:25:07
  16. Scala部分应用函数和偏函数

    部分应用函数 部分应用函数也称部分函数。当在调用一个函数时&#xff0c;把这个函数应用到参数中。 如果您传递所有预期的参数&#xff0c;则表示您已完全应用它。 如果只传递几个参数并不是全部参数&#xff0c;那么将返回部分应用的函数。这样就可以方便地绑定一些参数&a…...

    2024/4/9 3:08:50
  17. JavaScript 异步编程(2)Promise

    概念 直接使用传统回调方式去完成复杂的异步流程&#xff0c;会造成大量的回调函数嵌套&#xff0c;这称为回调地狱。 $.get(/ur1, function (data1) {$.get(/ur2, function (data2) {$.get(/ur3, function (data2) {// ...}} }CommonJS 社区提出了 Promise 的规范&#xff0…...

    2024/4/9 3:08:49
  18. PTA7-9组最小个数

    PTA7-9组最小个数题 题目类型 简单性 实现思路 首先利用一个数组将所读数据存入&#xff0c;该数据为0-9的个数进入循环&#xff0c;注意首先从1开始&#xff0c;因为要跳过零找到首个非零同时个数不为零的元素进入循环&#xff0c;输出元素 实现代码 #include <iostr…...

    2024/4/9 3:08:48
  19. Ubuntu18.04安装ROSMoledic教程及经验

    在机房安装ROS&#xff0c;捣鼓了好几遍终于安装好了&#xff0c;把安装过程记录一下&#xff0c;有点曲折&#xff0c;说不定大家也会碰到类似的问题。 第一步 第二步 设置软件源&#xff0c;用的清华的&#xff1a; sudo sh -c . /etc/lsb-release && echo "…...

    2024/4/9 3:08:47
  20. textarea 标签 的关闭按钮和不可拉动效果

    <a-textarea placeholder"" allow-clear change"onChangeYuming" v-model"datalist.contentName" /> 这个 allow-clear 是关闭按钮 &#xff0c;删掉就没有关闭按钮了 不可拉动是样式控制 textarea{ resize: none; } 就不能拖…...

    2024/4/9 6:35:29

最新文章

  1. 天软特色因子看板 (2024.4 第8期)

    该因子看板跟踪天软特色因子A05005(近一月单笔流出金额占比(%)&#xff0c;该因子为近一月单笔流出金额占比(% 均值因子&#xff0c;用以刻画下跌时的 单成交中可能存在的抄底现象 今日为该因子跟踪第8期&#xff0c;跟踪其在SW801080 (申万电子) 中的表现&#xff0c;要点如下…...

    2024/5/6 11:56:02
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/5/6 9:38:23
  3. [C++/Linux] UDP编程

    一. UDP函数 UDP&#xff08;用户数据报协议&#xff0c;User Datagram Protocol&#xff09;是一种无连接的网络协议&#xff0c;用于在互联网上交换数据。它允许应用程序发送数据报给另一端的应用程序&#xff0c;但不保证数据报能成功到达&#xff0c;也就是说&#xff0c;它…...

    2024/5/3 8:59:07
  4. GIS与数字孪生共舞,打造未来智慧场景

    作为一名数字孪生资深用户&#xff0c;近日我深刻理解到GIS&#xff08;地理信息系统&#xff09;在构建数字孪生体中的关键作用。 数字孪生技术旨在构建现实世界的虚拟镜像&#xff0c;而GIS则是这一镜像中不可或缺的空间维度框架和导航灯塔。数字孪生的核心是通过数字化方式…...

    2024/5/2 2:35:02
  5. 416. 分割等和子集问题(动态规划)

    题目 题解 class Solution:def canPartition(self, nums: List[int]) -> bool:# badcaseif not nums:return True# 不能被2整除if sum(nums) % 2 ! 0:return False# 状态定义&#xff1a;dp[i][j]表示当背包容量为j&#xff0c;用前i个物品是否正好可以将背包填满&#xff…...

    2024/5/5 18:19:03
  6. 【Java】ExcelWriter自适应宽度工具类(支持中文)

    工具类 import org.apache.poi.ss.usermodel.Cell; import org.apache.poi.ss.usermodel.CellType; import org.apache.poi.ss.usermodel.Row; import org.apache.poi.ss.usermodel.Sheet;/*** Excel工具类** author xiaoming* date 2023/11/17 10:40*/ public class ExcelUti…...

    2024/5/5 12:22:20
  7. Spring cloud负载均衡@LoadBalanced LoadBalancerClient

    LoadBalance vs Ribbon 由于Spring cloud2020之后移除了Ribbon&#xff0c;直接使用Spring Cloud LoadBalancer作为客户端负载均衡组件&#xff0c;我们讨论Spring负载均衡以Spring Cloud2020之后版本为主&#xff0c;学习Spring Cloud LoadBalance&#xff0c;暂不讨论Ribbon…...

    2024/5/5 19:59:54
  8. TSINGSEE青犀AI智能分析+视频监控工业园区周界安全防范方案

    一、背景需求分析 在工业产业园、化工园或生产制造园区中&#xff0c;周界防范意义重大&#xff0c;对园区的安全起到重要的作用。常规的安防方式是采用人员巡查&#xff0c;人力投入成本大而且效率低。周界一旦被破坏或入侵&#xff0c;会影响园区人员和资产安全&#xff0c;…...

    2024/5/6 7:24:07
  9. VB.net WebBrowser网页元素抓取分析方法

    在用WebBrowser编程实现网页操作自动化时&#xff0c;常要分析网页Html&#xff0c;例如网页在加载数据时&#xff0c;常会显示“系统处理中&#xff0c;请稍候..”&#xff0c;我们需要在数据加载完成后才能继续下一步操作&#xff0c;如何抓取这个信息的网页html元素变化&…...

    2024/5/5 15:25:47
  10. 【Objective-C】Objective-C汇总

    方法定义 参考&#xff1a;https://www.yiibai.com/objective_c/objective_c_functions.html Objective-C编程语言中方法定义的一般形式如下 - (return_type) method_name:( argumentType1 )argumentName1 joiningArgument2:( argumentType2 )argumentName2 ... joiningArgu…...

    2024/5/6 6:01:13
  11. 【洛谷算法题】P5713-洛谷团队系统【入门2分支结构】

    &#x1f468;‍&#x1f4bb;博客主页&#xff1a;花无缺 欢迎 点赞&#x1f44d; 收藏⭐ 留言&#x1f4dd; 加关注✅! 本文由 花无缺 原创 收录于专栏 【洛谷算法题】 文章目录 【洛谷算法题】P5713-洛谷团队系统【入门2分支结构】&#x1f30f;题目描述&#x1f30f;输入格…...

    2024/5/6 7:24:06
  12. 【ES6.0】- 扩展运算符(...)

    【ES6.0】- 扩展运算符... 文章目录 【ES6.0】- 扩展运算符...一、概述二、拷贝数组对象三、合并操作四、参数传递五、数组去重六、字符串转字符数组七、NodeList转数组八、解构变量九、打印日志十、总结 一、概述 **扩展运算符(...)**允许一个表达式在期望多个参数&#xff0…...

    2024/5/6 1:08:53
  13. 摩根看好的前智能硬件头部品牌双11交易数据极度异常!——是模式创新还是饮鸩止渴?

    文 | 螳螂观察 作者 | 李燃 双11狂欢已落下帷幕&#xff0c;各大品牌纷纷晒出优异的成绩单&#xff0c;摩根士丹利投资的智能硬件头部品牌凯迪仕也不例外。然而有爆料称&#xff0c;在自媒体平台发布霸榜各大榜单喜讯的凯迪仕智能锁&#xff0c;多个平台数据都表现出极度异常…...

    2024/5/5 18:50:00
  14. Go语言常用命令详解(二)

    文章目录 前言常用命令go bug示例参数说明 go doc示例参数说明 go env示例 go fix示例 go fmt示例 go generate示例 总结写在最后 前言 接着上一篇继续介绍Go语言的常用命令 常用命令 以下是一些常用的Go命令&#xff0c;这些命令可以帮助您在Go开发中进行编译、测试、运行和…...

    2024/5/6 0:27:44
  15. 用欧拉路径判断图同构推出reverse合法性:1116T4

    http://cplusoj.com/d/senior/p/SS231116D 假设我们要把 a a a 变成 b b b&#xff0c;我们在 a i a_i ai​ 和 a i 1 a_{i1} ai1​ 之间连边&#xff0c; b b b 同理&#xff0c;则 a a a 能变成 b b b 的充要条件是两图 A , B A,B A,B 同构。 必要性显然&#xff0…...

    2024/5/6 7:24:04
  16. 【NGINX--1】基础知识

    1、在 Debian/Ubuntu 上安装 NGINX 在 Debian 或 Ubuntu 机器上安装 NGINX 开源版。 更新已配置源的软件包信息&#xff0c;并安装一些有助于配置官方 NGINX 软件包仓库的软件包&#xff1a; apt-get update apt install -y curl gnupg2 ca-certificates lsb-release debian-…...

    2024/5/6 7:24:04
  17. Hive默认分割符、存储格式与数据压缩

    目录 1、Hive默认分割符2、Hive存储格式3、Hive数据压缩 1、Hive默认分割符 Hive创建表时指定的行受限&#xff08;ROW FORMAT&#xff09;配置标准HQL为&#xff1a; ... ROW FORMAT DELIMITED FIELDS TERMINATED BY \u0001 COLLECTION ITEMS TERMINATED BY , MAP KEYS TERMI…...

    2024/5/5 13:14:22
  18. 【论文阅读】MAG:一种用于航天器遥测数据中有效异常检测的新方法

    文章目录 摘要1 引言2 问题描述3 拟议框架4 所提出方法的细节A.数据预处理B.变量相关分析C.MAG模型D.异常分数 5 实验A.数据集和性能指标B.实验设置与平台C.结果和比较 6 结论 摘要 异常检测是保证航天器稳定性的关键。在航天器运行过程中&#xff0c;传感器和控制器产生大量周…...

    2024/5/6 7:24:03
  19. --max-old-space-size=8192报错

    vue项目运行时&#xff0c;如果经常运行慢&#xff0c;崩溃停止服务&#xff0c;报如下错误 FATAL ERROR: CALL_AND_RETRY_LAST Allocation failed - JavaScript heap out of memory 因为在 Node 中&#xff0c;通过JavaScript使用内存时只能使用部分内存&#xff08;64位系统&…...

    2024/5/5 17:03:52
  20. 基于深度学习的恶意软件检测

    恶意软件是指恶意软件犯罪者用来感染个人计算机或整个组织的网络的软件。 它利用目标系统漏洞&#xff0c;例如可以被劫持的合法软件&#xff08;例如浏览器或 Web 应用程序插件&#xff09;中的错误。 恶意软件渗透可能会造成灾难性的后果&#xff0c;包括数据被盗、勒索或网…...

    2024/5/5 21:10:50
  21. JS原型对象prototype

    让我简单的为大家介绍一下原型对象prototype吧&#xff01; 使用原型实现方法共享 1.构造函数通过原型分配的函数是所有对象所 共享的。 2.JavaScript 规定&#xff0c;每一个构造函数都有一个 prototype 属性&#xff0c;指向另一个对象&#xff0c;所以我们也称为原型对象…...

    2024/5/6 7:24:02
  22. C++中只能有一个实例的单例类

    C中只能有一个实例的单例类 前面讨论的 President 类很不错&#xff0c;但存在一个缺陷&#xff1a;无法禁止通过实例化多个对象来创建多名总统&#xff1a; President One, Two, Three; 由于复制构造函数是私有的&#xff0c;其中每个对象都是不可复制的&#xff0c;但您的目…...

    2024/5/6 7:24:01
  23. python django 小程序图书借阅源码

    开发工具&#xff1a; PyCharm&#xff0c;mysql5.7&#xff0c;微信开发者工具 技术说明&#xff1a; python django html 小程序 功能介绍&#xff1a; 用户端&#xff1a; 登录注册&#xff08;含授权登录&#xff09; 首页显示搜索图书&#xff0c;轮播图&#xff0…...

    2024/5/5 17:03:21
  24. 电子学会C/C++编程等级考试2022年03月(一级)真题解析

    C/C++等级考试(1~8级)全部真题・点这里 第1题:双精度浮点数的输入输出 输入一个双精度浮点数,保留8位小数,输出这个浮点数。 时间限制:1000 内存限制:65536输入 只有一行,一个双精度浮点数。输出 一行,保留8位小数的浮点数。样例输入 3.1415926535798932样例输出 3.1…...

    2024/5/5 15:25:31
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57