轻量级网络SqueezeNet、MobileNet、ShuffleNet等的网络结构图以及pytorch代码(转载)
转载 转载 超好的文章
https://www.cnblogs.com/vincent1997/p/10916734.html
前言
深度卷积网络除了准确度,计算复杂度也是考虑的重要指标。本文列出了近年主流的轻量级网络,简单地阐述了它们的思想。由于本人水平有限,对这部分的理解还不够深入,还需要继续学习和完善。
最后我参考部分列出来的文章都写的非常棒,建议继续阅读。
复杂度分析
- 理论计算量(FLOPs):浮点运算次数(FLoating-point Operation)
- 参数数量(params):单位通常为M,用float32表示。
对比
- std conv(主要贡献计算量)
- params:kh×kw×cin×coutkh×kw×cin×cout
- FLOPs:kh×kw×cin×cout×H×Wkh×kw×cin×cout×H×W
- fc(主要贡献参数量)
- params:cin×coutcin×cout
- FLOPs:cin×coutcin×cout
- group conv
- params:(kh×kw×cin/g×cout/g)×g=kh×kw×cin×cout/g(kh×kw×cin/g×cout/g)×g=kh×kw×cin×cout/g
- FLOPs:kh×kw×cin×cout×H×W/gkh×kw×cin×cout×H×W/g
- depth-wise conv
- params:kh×kw×cin×cout/cin=kh×kw×coutkh×kw×cin×cout/cin=kh×kw×cout
- FLOPs:kh×kw×cout×H×Wkh×kw×cout×H×W
SqueezeNet
SqueezeNet:AlexNet-level accuracy with 50x fewer parameters and <0.5MB
核心思想
- 提出Fire module,包含两部分:squeeze和expand层。
- squeeze为1x1卷积,S1<MS1<M,从而压缩
- Expand层为e1个1x1卷积和e3个3x3卷积,分别输出H×W×e1H×W×e1和H×W×e2H×W×e2。
- concat得到H×W×(e1+e3)H×W×(e1+e3)
class Fire(nn.Module):def __init__(self, in_channel, out_channel, squzee_channel):super().__init__()self.squeeze = nn.Sequential(nn.Conv2d(in_channel, squzee_channel, 1),nn.BatchNorm2d(squzee_channel),nn.ReLU(inplace=True))self.expand_1x1 = nn.Sequential(nn.Conv2d(squzee_channel, int(out_channel / 2), 1),nn.BatchNorm2d(int(out_channel / 2)),nn.ReLU(inplace=True))self.expand_3x3 = nn.Sequential(nn.Conv2d(squzee_channel, int(out_channel / 2), 3, padding=1),nn.BatchNorm2d(int(out_channel / 2)),nn.ReLU(inplace=True))def forward(self, x):x = self.squeeze(x)x = torch.cat([self.expand_1x1(x),self.expand_3x3(x)], 1)return x
网络架构
class SqueezeNet(nn.Module):"""mobile net with simple bypass"""def __init__(self, class_num=100):super().__init__()self.stem = nn.Sequential(nn.Conv2d(3, 96, 3, padding=1),nn.BatchNorm2d(96),nn.ReLU(inplace=True),nn.MaxPool2d(2, 2))self.fire2 = Fire(96, 128, 16)self.fire3 = Fire(128, 128, 16)self.fire4 = Fire(128, 256, 32)self.fire5 = Fire(256, 256, 32)self.fire6 = Fire(256, 384, 48)self.fire7 = Fire(384, 384, 48)self.fire8 = Fire(384, 512, 64)self.fire9 = Fire(512, 512, 64)self.conv10 = nn.Conv2d(512, class_num, 1)self.avg = nn.AdaptiveAvgPool2d(1)self.maxpool = nn.MaxPool2d(2, 2)def forward(self, x):x = self.stem(x)f2 = self.fire2(x)f3 = self.fire3(f2) + f2f4 = self.fire4(f3)f4 = self.maxpool(f4)f5 = self.fire5(f4) + f4f6 = self.fire6(f5)f7 = self.fire7(f6) + f6f8 = self.fire8(f7)f8 = self.maxpool(f8)f9 = self.fire9(f8)c10 = self.conv10(f9)x = self.avg(c10)x = x.view(x.size(0), -1)return xdef squeezenet(class_num=100):return SqueezeNet(class_num=class_num)
实验结果
- 注意:0.5MB是模型压缩的结果。
MobileNetV1
MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications
核心思想
使用了depth-wise separable conv降低了参数和计算量。
提出两个超参数Width Multiplier和Resolution Multiplier来平衡时间和精度。
- depth-wise separable conv
Standard Conv
DKDK:kernel size
DFDF:feature map size
MM:input channel number
NN:output channel number
参数量:DK×DK×M×N(3×3×3×2)DK×DK×M×N(3×3×3×2)
计算量:DK⋅DK⋅M⋅N⋅DF⋅DFDK⋅DK⋅M⋅N⋅DF⋅DF
用depth-wise separable conv来替代std conv,depth-wise conv分解为depthwise conv和pointwise conv。
std conv输出的每个通道的feature包含了输入所有通道的feature,depth-wise separable conv没有办法做到,所以需要用pointwise conv来结合不同通道的feature。
Depthwise Conv
对输入feature的每个通道单独做卷积操作,得到每个通道对应的输出feature。
参数量:DK×DK×M(3×3×3)DK×DK×M(3×3×3)
计算量:DK⋅DK⋅M⋅DF⋅DFDK⋅DK⋅M⋅DF⋅DF
Pointwise Conv
将depthwise conv的输出,即不同通道的feature map结合起来,从而达到和std conv一样的效果。
参数量:1×1×M×N(1×1×3×2)1×1×M×N(1×1×3×2)
计算量:M⋅N⋅DF⋅DFM⋅N⋅DF⋅DF
从而总计算量为DK⋅DK⋅M⋅DF⋅DF+M⋅ N⋅DF⋅DFDK⋅DK⋅M⋅DF⋅DF+M⋅ N⋅DF⋅DF
通过拆分,相当于将standard conv计算量压缩为:
代码实现
BasicConv2d & DepthSeperableConv2d
class DepthSeperabelConv2d(nn.Module):def __init__(self, input_channels, output_channels, kernel_size, **kwargs):super().__init__()self.depthwise = nn.Sequential(nn.Conv2d(input_channels,input_channels,kernel_size,groups=input_channels,**kwargs),nn.BatchNorm2d(input_channels),nn.ReLU(inplace=True))self.pointwise = nn.Sequential(nn.Conv2d(input_channels, output_channels, 1),nn.BatchNorm2d(output_channels),nn.ReLU(inplace=True))def forward(self, x):x = self.depthwise(x)x = self.pointwise(x)return xclass BasicConv2d(nn.Module):def __init__(self, input_channels, output_channels, kernel_size, **kwargs):super().__init__()self.conv = nn.Conv2d(input_channels, output_channels, kernel_size, **kwargs)self.bn = nn.BatchNorm2d(output_channels)self.relu = nn.ReLU(inplace=True)def forward(self, x):x = self.conv(x)x = self.bn(x)x = self.relu(x)return x
- Two hyper-parameters
- Width Multiplier αα:以系数1,0.75,0.5和0.251,0.75,0.5和0.25乘以input、output channel
计算量变为DK⋅DK⋅αM⋅DF⋅DF+αM⋅ αN⋅DF⋅DFDK⋅DK⋅αM⋅DF⋅DF+αM⋅ αN⋅DF⋅DF
- Resoltion Multiplier ρρ:将输入分辨率变为224,192,160或128224,192,160或128。
计算量变为DK⋅DK⋅αM⋅ρDF⋅ρDF+αM⋅ αN⋅ρDF⋅ρDFDK⋅DK⋅αM⋅ρDF⋅ρDF+αM⋅ αN⋅ρDF⋅ρDF
网络架构
def mobilenet(alpha=1, class_num=100):return MobileNet(alpha, class_num)class MobileNet(nn.Module):"""Args:width multipler: The role of the width multiplier α is to thin a network uniformly at each layer. For a given layer and width multiplier α, the number of input channels M becomes αM and the number of output channels N becomes αN."""def __init__(self, width_multiplier=1, class_num=100):super().__init__()alpha = width_multiplierself.stem = nn.Sequential(BasicConv2d(3, int(32 * alpha), 3, padding=1, bias=False),DepthSeperabelConv2d(int(32 * alpha),int(64 * alpha),3,padding=1,bias=False))#downsampleself.conv1 = nn.Sequential(DepthSeperabelConv2d(int(64 * alpha),int(128 * alpha),3,stride=2,padding=1,bias=False),DepthSeperabelConv2d(int(128 * alpha),int(128 * alpha),3,padding=1,bias=False))#downsampleself.conv2 = nn.Sequential(DepthSeperabelConv2d(int(128 * alpha),int(256 * alpha),3,stride=2,padding=1,bias=False),DepthSeperabelConv2d(int(256 * alpha),int(256 * alpha),3,padding=1,bias=False))#downsampleself.conv3 = nn.Sequential(DepthSeperabelConv2d(int(256 * alpha),int(512 * alpha),3,stride=2,padding=1,bias=False),DepthSeperabelConv2d(int(512 * alpha),int(512 * alpha),3,padding=1,bias=False),DepthSeperabelConv2d(int(512 * alpha),int(512 * alpha),3,padding=1,bias=False),DepthSeperabelConv2d(int(512 * alpha),int(512 * alpha),3,padding=1,bias=False),DepthSeperabelConv2d(int(512 * alpha),int(512 * alpha),3,padding=1,bias=False),DepthSeperabelConv2d(int(512 * alpha),int(512 * alpha),3,padding=1,bias=False))#downsampleself.conv4 = nn.Sequential(DepthSeperabelConv2d(int(512 * alpha),int(1024 * alpha),3,stride=2,padding=1,bias=False),DepthSeperabelConv2d(int(1024 * alpha),int(1024 * alpha),3,padding=1,bias=False))self.fc = nn.Linear(int(1024 * alpha), class_num)self.avg = nn.AdaptiveAvgPool2d(1)def forward(self, x):x = self.stem(x)x = self.conv1(x)x = self.conv2(x)x = self.conv3(x)x = self.conv4(x)x = self.avg(x)x = x.view(x.size(0), -1)x = self.fc(x)return x
实验结果
MobileNetV2
核心思想
- Inverted residual block:引入残差结构和bottleneck层。
- Linear Bottlenecks:ReLU会破坏信息,故去掉第二个Conv1x1后的ReLU,改为线性神经元。
MobileNetv2与其他网络对比
MobileNetV2 block
- 代码实现
class LinearBottleNeck(nn.Module):def __init__(self, in_channels, out_channels, stride, t=6, class_num=100):super().__init__()self.residual = nn.Sequential(nn.Conv2d(in_channels, in_channels * t, 1),nn.BatchNorm2d(in_channels * t),nn.ReLU6(inplace=True),nn.Conv2d(in_channels * t, in_channels * t, 3, stride=stride, padding=1, groups=in_channels * t),nn.BatchNorm2d(in_channels * t),nn.ReLU6(inplace=True),nn.Conv2d(in_channels * t, out_channels, 1),nn.BatchNorm2d(out_channels))self.stride = strideself.in_channels = in_channelsself.out_channels = out_channelsdef forward(self, x):residual = self.residual(x)if self.stride == 1 and self.in_channels == self.out_channels:residual += xreturn residual
网络架构
class MobileNetV2(nn.Module):def __init__(self, class_num=100):super().__init__()self.pre = nn.Sequential(nn.Conv2d(3, 32, 1, padding=1),nn.BatchNorm2d(32),nn.ReLU6(inplace=True))self.stage1 = LinearBottleNeck(32, 16, 1, 1)self.stage2 = self._make_stage(2, 16, 24, 2, 6)self.stage3 = self._make_stage(3, 24, 32, 2, 6)self.stage4 = self._make_stage(4, 32, 64, 2, 6)self.stage5 = self._make_stage(3, 64, 96, 1, 6)self.stage6 = self._make_stage(3, 96, 160, 1, 6)self.stage7 = LinearBottleNeck(160, 320, 1, 6)self.conv1 = nn.Sequential(nn.Conv2d(320, 1280, 1),nn.BatchNorm2d(1280),nn.ReLU6(inplace=True))self.conv2 = nn.Conv2d(1280, class_num, 1)def forward(self, x):x = self.pre(x)x = self.stage1(x)x = self.stage2(x)x = self.stage3(x)x = self.stage4(x)x = self.stage5(x)x = self.stage6(x)x = self.stage7(x)x = self.conv1(x)x = F.adaptive_avg_pool2d(x, 1)x = self.conv2(x)x = x.view(x.size(0), -1)return xdef _make_stage(self, repeat, in_channels, out_channels, stride, t):layers = []layers.append(LinearBottleNeck(in_channels, out_channels, stride, t))while repeat - 1:layers.append(LinearBottleNeck(out_channels, out_channels, 1, t))repeat -= 1return nn.Sequential(*layers)def mobilenetv2():return MobileNetV2()
实验结果
ShuffleNetV1
核心思想
- 利用group convolution和channel shuffle来减少模型参数量。
- ShuffleNet unit
从ResNet bottleneck 演化得到shuffleNet unit
- (a)带depth-wise conv的bottleneck unit
- (b)将1x1conv换成1x1Gconv,并在第一个1x1Gconv后增加一个channel shuffle。
- (c)旁路增加AVG pool,减小feature map的分辨率;分辨率小了,最后不采用add而是concat,从而弥补分辨率减小带来的信息损失。
- 代码实现
class ChannelShuffle(nn.Module):def __init__(self, groups):super().__init__()self.groups = groupsdef forward(self, x):batchsize, channels, height, width = x.data.size()channels_per_group = int(channels / self.groups)#"""suppose a convolutional layer with g groups whose output has#g x n channels; we first reshape the output channel dimension#into (g, n)"""x = x.view(batchsize, self.groups, channels_per_group, height, width)#"""transposing and then flattening it back as the input of next layer."""x = x.transpose(1, 2).contiguous()x = x.view(batchsize, -1, height, width)return xclass ShuffleNetUnit(nn.Module):def __init__(self, input_channels, output_channels, stage, stride, groups):super().__init__()#"""Similar to [9], we set the number of bottleneck channels to 1/4 #of the output channels for each ShuffleNet unit."""self.bottlneck = nn.Sequential(PointwiseConv2d(input_channels, int(output_channels / 4), groups=groups),nn.ReLU(inplace=True))#"""Note that for Stage 2, we do not apply group convolution on the first pointwise #layer because the number of input channels is relatively small."""if stage == 2:self.bottlneck = nn.Sequential(PointwiseConv2d(input_channels, int(output_channels / 4),groups=groups),nn.ReLU(inplace=True))self.channel_shuffle = ChannelShuffle(groups)self.depthwise = DepthwiseConv2d(int(output_channels / 4), int(output_channels / 4), 3, groups=int(output_channels / 4), stride=stride,padding=1)self.expand = PointwiseConv2d(int(output_channels / 4),output_channels,groups=groups)self.relu = nn.ReLU(inplace=True)self.fusion = self._addself.shortcut = nn.Sequential()#"""As for the case where ShuffleNet is applied with stride, #we simply make two modifications (see Fig 2 (c)): #(i) add a 3 × 3 average pooling on the shortcut path; #(ii) replace the element-wise addition with channel concatenation, #which makes it easy to enlarge channel dimension with little extra #computation cost.if stride != 1 or input_channels != output_channels:self.shortcut = nn.AvgPool2d(3, stride=2, padding=1)self.expand = PointwiseConv2d(int(output_channels / 4),output_channels - input_channels,groups=groups)self.fusion = self._catdef _add(self, x, y):return torch.add(x, y)def _cat(self, x, y):return torch.cat([x, y], dim=1)def forward(self, x):shortcut = self.shortcut(x)shuffled = self.bottlneck(x)shuffled = self.channel_shuffle(shuffled)shuffled = self.depthwise(shuffled)shuffled = self.expand(shuffled)output = self.fusion(shortcut, shuffled)output = self.relu(output)return output
网络架构
- 代码实现
class ShuffleNet(nn.Module):def __init__(self, num_blocks, num_classes=100, groups=3):super().__init__()if groups == 1:out_channels = [24, 144, 288, 567]elif groups == 2:out_channels = [24, 200, 400, 800]elif groups == 3:out_channels = [24, 240, 480, 960]elif groups == 4:out_channels = [24, 272, 544, 1088]elif groups == 8:out_channels = [24, 384, 768, 1536]self.conv1 = BasicConv2d(3, out_channels[0], 3, padding=1, stride=1)self.input_channels = out_channels[0]self.stage2 = self._make_stage(ShuffleNetUnit, num_blocks[0], out_channels[1], stride=2, stage=2,groups=groups)self.stage3 = self._make_stage(ShuffleNetUnit, num_blocks[1], out_channels[2], stride=2,stage=3, groups=groups)self.stage4 = self._make_stage(ShuffleNetUnit,num_blocks[2],out_channels[3],stride=2,stage=4,groups=groups)self.avg = nn.AdaptiveAvgPool2d((1, 1))self.fc = nn.Linear(out_channels[3], num_classes)def forward(self, x):x = self.conv1(x)x = self.stage2(x)x = self.stage3(x)x = self.stage4(x)x = self.avg(x)x = x.view(x.size(0), -1)x = self.fc(x)return xdef _make_stage(self, block, num_blocks, output_channels, stride, stage, groups):"""make shufflenet stage Args:block: block type, shuffle unitout_channels: output depth channel number of this stagenum_blocks: how many blocks per stagestride: the stride of the first block of this stagestage: stage indexgroups: group number of group convolution Return:return a shuffle net stage"""strides = [stride] + [1] * (num_blocks - 1)stage = []for stride in strides:stage.append(block(self.input_channels, output_channels, stride=stride, stage=stage, groups=groups))self.input_channels = output_channelsreturn nn.Sequential(*stage)def shufflenet():return ShuffleNet([4, 8, 4])
实验结果
ShuffleNetV2
核心思想
基于四条准则,改进了SuffleNetv1
G1)同等通道最小化内存访问量(1x1卷积平衡输入和输出通道大小)
G2)过量使用组卷积增加内存访问量(谨慎使用组卷积)
G3)网络碎片化降低并行度(避免网络碎片化)
G4)不能忽略元素级操作(减少元素级运算)
- 代码实现
def channel_split(x, split):"""split a tensor into two pieces along channel dimensionArgs:x: input tensorsplit:(int) channel size for each pieces"""assert x.size(1) == split * 2return torch.split(x, split, dim=1)def channel_shuffle(x, groups):"""channel shuffle operationArgs:x: input tensorgroups: input branch number"""batch_size, channels, height, width = x.size()channels_per_group = int(channels / groups)x = x.view(batch_size, groups, channels_per_group, height, width)x = x.transpose(1, 2).contiguous()x = x.view(batch_size, -1, height, width)return xclass ShuffleUnit(nn.Module):def __init__(self, in_channels, out_channels, stride):super().__init__()self.stride = strideself.in_channels = in_channelsself.out_channels = out_channelsif stride != 1 or in_channels != out_channels:self.residual = nn.Sequential(nn.Conv2d(in_channels, in_channels, 1),nn.BatchNorm2d(in_channels),nn.ReLU(inplace=True),nn.Conv2d(in_channels, in_channels, 3, stride=stride, padding=1, groups=in_channels),nn.BatchNorm2d(in_channels),nn.Conv2d(in_channels, int(out_channels / 2), 1),nn.BatchNorm2d(int(out_channels / 2)),nn.ReLU(inplace=True))self.shortcut = nn.Sequential(nn.Conv2d(in_channels, in_channels, 3, stride=stride, padding=1, groups=in_channels),nn.BatchNorm2d(in_channels),nn.Conv2d(in_channels, int(out_channels / 2), 1),nn.BatchNorm2d(int(out_channels / 2)),nn.ReLU(inplace=True))else:self.shortcut = nn.Sequential()in_channels = int(in_channels / 2)self.residual = nn.Sequential(nn.Conv2d(in_channels, in_channels, 1),nn.BatchNorm2d(in_channels),nn.ReLU(inplace=True),nn.Conv2d(in_channels, in_channels, 3, stride=stride, padding=1, groups=in_channels),nn.BatchNorm2d(in_channels),nn.Conv2d(in_channels, in_channels, 1),nn.BatchNorm2d(in_channels),nn.ReLU(inplace=True) )def forward(self, x):if self.stride == 1 and self.out_channels == self.in_channels:shortcut, residual = channel_split(x, int(self.in_channels / 2))else:shortcut = xresidual = xshortcut = self.shortcut(shortcut)residual = self.residual(residual)x = torch.cat([shortcut, residual], dim=1)x = channel_shuffle(x, 2)return x
网络架构
class ShuffleNetV2(nn.Module):def __init__(self, ratio=1, class_num=100):super().__init__()if ratio == 0.5:out_channels = [48, 96, 192, 1024]elif ratio == 1:out_channels = [116, 232, 464, 1024]elif ratio == 1.5:out_channels = [176, 352, 704, 1024]elif ratio == 2:out_channels = [244, 488, 976, 2048]else:ValueError('unsupported ratio number')self.pre = nn.Sequential(nn.Conv2d(3, 24, 3, padding=1),nn.BatchNorm2d(24))self.stage2 = self._make_stage(24, out_channels[0], 3)self.stage3 = self._make_stage(out_channels[0], out_channels[1], 7)self.stage4 = self._make_stage(out_channels[1], out_channels[2], 3)self.conv5 = nn.Sequential(nn.Conv2d(out_channels[2], out_channels[3], 1),nn.BatchNorm2d(out_channels[3]),nn.ReLU(inplace=True))self.fc = nn.Linear(out_channels[3], class_num)def forward(self, x):x = self.pre(x)x = self.stage2(x)x = self.stage3(x)x = self.stage4(x)x = self.conv5(x)x = F.adaptive_avg_pool2d(x, 1)x = x.view(x.size(0), -1)x = self.fc(x)return xdef _make_stage(self, in_channels, out_channels, repeat):layers = []layers.append(ShuffleUnit(in_channels, out_channels, 2))while repeat:layers.append(ShuffleUnit(out_channels, out_channels, 1))repeat -= 1return nn.Sequential(*layers)def shufflenetv2():return ShuffleNetV2()
实验结果
参考
卷积神经网络的复杂度分析
纵览轻量化卷积神经网络:SqueezeNet、MobileNet、ShuffleNet、Xception
CVPR 2018 高效小网络探密(上)
CVPR 2018 高效小网络探密(下)
http://machinethink.net/blog/mobilenet-v2/
轻量级CNN网络之MobileNetv2
ShuffleNetV2:轻量级CNN网络中的桂冠
轻量化网络ShuffleNet MobileNet v1/v2 解析
Roofline Model与深度学习模型的性能分析
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
相关文章
- 艾永亮:增加用户粘性的这些细节,造就超级产品,你注意到了吗?
在打造超级产品中,往往会有一些人性化的设计深得用户的喜爱,有些小细节是企业能够注意到的,却总是忽略,很多时候只要企业能够关注到产品的每一个细节,在细节上提升用户体验,让产品超越用户预期,就能够打造出属于自己的超级产品。本文将通过企业案例告诉大家打造超级产品…...
2024/4/15 17:09:39 - css 元素放大,文字抖动模糊
在此记录下遇到的问题。给文字元素添加transform:scale(1.1, 1.1),会出现文字放大时,文字会先变大,后变小的抖动情况,在网上查了资料说开启硬件加速的方式,例如“transform:scale(1.1, 1.1) translateZ(0);”这样修改抖动是解决了,但是又出现了模糊的情况,后来又调查了…...
2024/5/5 22:21:44 - 人大金仓数据库总结
常用的国产数据库:人大金仓,达梦,南大通用Springboot+mybatisPlus入门(人大金仓) https://blog.csdn.net/wangmourena/article/details/102706562在中标麒麟系统上安装使用人大金仓数据库可能会出现的问题 http://blog.sina.com.cn/s/blog_1355e43790102xi6a.html人大金仓…...
2024/4/15 17:09:37 - 采集淘宝、天猫API 获得淘宝、天猫店铺详情
采集淘宝、天猫API_seller_info - 获得淘宝、天猫店铺详情Result Object: { “user”: { “nick”: “禾苑旗舰店”, “city”: "广东 东莞 ", “created”: “2011-09-22 16:23:59”, “score”: “b_red_1” }, “error”: “data error,no cache”, “translate_s…...
2024/4/15 17:09:36 - 【sentinel】该系列文章demo
前言该系列文章,代码都在这里 https://gitee.com/xueyedangkong/sentinel-demo.git 启动时各个服务jvm命令如下SentinelDashboard sentinel控制台 无 SentinelClient sentinel客户端 无 SentinelDubboUserProvider dubbo服务端 -Dahas.namespace=default -Dproject.name…...
2024/4/15 17:09:35 - odoo13 多对多字段如何赋值?many2many
odoo13 多对多字段如何赋值?many2many说明上如下many2many(0,0,{values}) 根据values里面的信息新建一个记录。(1,ID,{values})更新id=ID的记录(写入values里面的数据)(2,ID) 删除id=ID的数据(调用unlink方法,删除数据以及整个主从数据链接关系)(3,ID) 切断主从数据的链接…...
2024/4/29 19:19:49 - 在Qt中移植程序
在Qt中运行程序会生成 Debug’和’Release’文件在项目目录中,要注意构建目录与我们的项目要在同一目录下。 通过’Mwaasage Kite’ 查看MSVC的版本。当移植别人的Qt程序的时候,经常跑不通,下面我介绍一些处理方式。1.清除‘build’下对应的‘debug’和’release’2.清除Mak…...
2024/4/15 17:09:33 - Spring Data JPA使用findAllOrderBy时踩的坑
参考博客:https://blog.csdn.net/remote_roamer/article/details/51460869https://www.cnblogs.com/tian874540961/p/10225267.html...
2024/4/15 17:09:32 - Struts2之ognl
Struts2之ognl基础OGNL什么是OGNLOGNL上下文ValueStack值栈什么是值栈值栈的存储位置总结 OGNL 什么是OGNL OGNL的全称是Object Graph Navigation Language(对象图导航语言),它是一种强大的表达式语言。 OGNL上下文OgnlContext(OGNL上下文)其实就是Map集合 OgnlContext由根对象…...
2024/4/15 17:09:31 - 函数式编程-lodash篇
简介 Lodash是一个一致性、模块化、高性能的 JavaScript 实用工具库。安装 初始化npm init -y安装依赖 cnpm i lodash 项目中使用const _ = require(lodash);简单使用 const array = [spring, second, third, four, five];console.log(_.first(array)); //数组中第一个元素cons…...
2024/5/3 10:04:39 - JVM调优步骤
一、熟悉业务优先响应还是优先吞吐量二、计算内存三、确定GC组合四、选定CPU,预算范围内越大越好五、设定分代年龄六、设定日志参数将GC日志输出到文件七、观察日志...
2024/4/15 15:40:32 - vue 子组件修改props中的值
问题:子组件想修改父组件传来的值(props中的值)。普通的修改会报错,因为这个值是单向的,只能传进来,要是想修改就要用v-model 解决办法:用v-model 写个简单粗暴例子: 父组件<control :lingthData="lingthData" v-model="deviceF"></contr…...
2024/4/29 14:28:03 - 线性天线阵
具有各向同性阵元,且它们幅值相同时,其阵因子是近似为sin(x)/x的形式,因此具有较大的旁瓣;通过调整每一天线的幅值,可以改善旁瓣;理论上,选择权值可以满足任何特殊的准则;对称标量权重只能用于改变旁瓣,具有凯泽-贝塞尔窗权值的天线阵旁瓣最小,而且其还能保持和均匀权…...
2024/4/15 15:40:30 - 小菜鸡面试の初体验,自闭路上渐行渐远......♂️
前言本人现在大三菜鸡,想在暑期找一份实习锻炼锻炼自己,所以也去投了一下简历试了试面试emmm感觉自己还是太菜了呜呜呜,真的还得加强一下自己才行,特别是算法方面,太吃亏了呜呜呜。大家最近赶快投!!提前批!挂了也不会计入系统!以后再努力努力!!冲鸭!!有兴趣可以看…...
2024/4/27 16:38:35 - 2020焊工(初级)模拟考试及焊工(初级)考试试题
题库来源:安全生产模拟考试一点通公众号小程序2020焊工(初级)模拟考试及焊工(初级)考试试题,包含焊工(初级)模拟考试答案解析及焊工(初级)考试试题练习。由安全生产模拟考试一点通公众号结合国家焊工(初级)考试最新大纲及焊工(初级)考试真题出具,有助于焊工(初…...
2024/4/15 15:40:30 - VSCode调试在命令行输入的Python指令(如:带-m参数的Python指令)
文章目录前言场景简介解决方案小结 前言 如题。我在命令行运行的是python3 -m sosed.run -i input_examples/input.txt -o output/closure/,但是在VSCode中的普通调试,会报模块找不到的问题(原因是普通调试不会带-m参数,所以有些路径就会找不到)。因此,本文记录如何用VSC…...
2024/4/14 15:54:58 - Spring Boot中使用AOP统一处理Web请求日志
AOP为Aspect Oriented Programming的缩写,意为:面向切面编程,通过预编译方式和运行期动态代理实现程序功能的统一维护的一种技术。AOP是Spring框架中的一个重要内容,它通过对既有程序定义一个切入点,然后在其前后切入不同的执行内容,比如常见的有:打开数据库连接/关闭数…...
2024/4/15 15:40:26 - sqlyog启动时一直显示连接中无反应
这种情况比较特殊,很少有人遇到 具体原理是在于sqlyog连接的mysql有防火墙而且本ip被防火墙阻挡 解决办法 1.在mysql对应服务器的防火墙中加入本IP,强制关闭并重启sqlyog 2.如果已经无法修改服务器防火墙,打开电脑C盘搜索sqlyog目录 在sqlyog目录中删除connrestore.db文件删…...
2024/4/15 17:09:30 - fastjson学习笔记
快速预览1. 什么是fastjson2. 什么是JSON3.fastjson如何使用3.1 创建demo3.2 将javaBean转化为JSON字符串3.3 将JSON字符串转化为JavaBean3.4 将JavaBean转化为JSON对象3.5 将JSON对象转化为JavaBean3.6 将JavaBean集合转化为JsonArray3.7 将JSONArray转化为JavaBean集合3.8 将…...
2024/4/15 17:09:29 - Spring Boot中使用log4j实现http请求日志入mongodb
之前在《使用AOP统一处理Web请求日志》一文中介绍了如何使用AOP统一记录web请求日志。基本思路是通过aop去切web层的controller实现,获取每个http的内容并通过log4j将日志内容写到应用服务器的文件系统中。 但是当我们在集群中部署应用之后,应用请求的日志被分散记录在了不同…...
2024/4/15 17:09:28
最新文章
- spring框架学习记录(3)
Spring事务 Spring事务简介 事务作用:在数据层保障一系列的数据库操作同成功同失败Spring事务作用:在数据层或业务层保障一系列的数据库操作同成功或同失败 Spring事务角色 事务管理员:发起事务方,在Spring中通常指代业务层开…...
2024/5/5 22:21:25 - 梯度消失和梯度爆炸的一些处理方法
在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言,在此感激不尽。 权重和梯度的更新公式如下: w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...
2024/3/20 10:50:27 - Redis群集模式和rsync远程同步
一、Redis群集模式 1.1 概念 1.2 作用 1.2.1 Redis集群的数据分片 1.2.2 Redis集群的主从复制模型 1.3 搭建Redis 群集模式 1.3.1 开启群集功能 1.3.2 启动redis节点 1.3.3 启动集群 1.3.4 测试群集 二、rsync远程同步 2.1 概念 2.2 同步方式 2.3 备份的方式 2.4…...
2024/5/1 15:14:30 - 自定义OPPO-r9s的kernel内核,并开启安卓支持docker
0. 版本说明 本文提供了OPPO手机r9s的内核编译方法,并开机支持docker。用的是开源lineage14.1的rom。 我这边基于开源lineage14.1,打了一个docker内核编译镜像(17380582683/r9s),大家可以在容器里,手动打出完整的rom包zip文件。…...
2024/5/2 2:39:28 - vue想要突破全局样式限制又不影响别的页面样式怎么办
<!-- 用scope盖不住全局,随意来个class匹配私定,搜索关键词:不要随便改,乱打class名 --> <style> .lkajsdfjkalsfhkljashkflhaskl .el-input.el-input--default.el-input--suffix { width: 160px !important; } …...
2024/5/5 8:45:15 - 416. 分割等和子集问题(动态规划)
题目 题解 class Solution:def canPartition(self, nums: List[int]) -> bool:# badcaseif not nums:return True# 不能被2整除if sum(nums) % 2 ! 0:return False# 状态定义:dp[i][j]表示当背包容量为j,用前i个物品是否正好可以将背包填满ÿ…...
2024/5/5 18:19:03 - 【Java】ExcelWriter自适应宽度工具类(支持中文)
工具类 import org.apache.poi.ss.usermodel.Cell; import org.apache.poi.ss.usermodel.CellType; import org.apache.poi.ss.usermodel.Row; import org.apache.poi.ss.usermodel.Sheet;/*** Excel工具类** author xiaoming* date 2023/11/17 10:40*/ public class ExcelUti…...
2024/5/5 12:22:20 - Spring cloud负载均衡@LoadBalanced LoadBalancerClient
LoadBalance vs Ribbon 由于Spring cloud2020之后移除了Ribbon,直接使用Spring Cloud LoadBalancer作为客户端负载均衡组件,我们讨论Spring负载均衡以Spring Cloud2020之后版本为主,学习Spring Cloud LoadBalance,暂不讨论Ribbon…...
2024/5/5 19:59:54 - TSINGSEE青犀AI智能分析+视频监控工业园区周界安全防范方案
一、背景需求分析 在工业产业园、化工园或生产制造园区中,周界防范意义重大,对园区的安全起到重要的作用。常规的安防方式是采用人员巡查,人力投入成本大而且效率低。周界一旦被破坏或入侵,会影响园区人员和资产安全,…...
2024/5/4 23:54:44 - VB.net WebBrowser网页元素抓取分析方法
在用WebBrowser编程实现网页操作自动化时,常要分析网页Html,例如网页在加载数据时,常会显示“系统处理中,请稍候..”,我们需要在数据加载完成后才能继续下一步操作,如何抓取这个信息的网页html元素变化&…...
2024/5/5 15:25:47 - 【Objective-C】Objective-C汇总
方法定义 参考:https://www.yiibai.com/objective_c/objective_c_functions.html Objective-C编程语言中方法定义的一般形式如下 - (return_type) method_name:( argumentType1 )argumentName1 joiningArgument2:( argumentType2 )argumentName2 ... joiningArgu…...
2024/5/4 23:54:49 - 【洛谷算法题】P5713-洛谷团队系统【入门2分支结构】
👨💻博客主页:花无缺 欢迎 点赞👍 收藏⭐ 留言📝 加关注✅! 本文由 花无缺 原创 收录于专栏 【洛谷算法题】 文章目录 【洛谷算法题】P5713-洛谷团队系统【入门2分支结构】🌏题目描述🌏输入格…...
2024/5/4 23:54:44 - 【ES6.0】- 扩展运算符(...)
【ES6.0】- 扩展运算符... 文章目录 【ES6.0】- 扩展运算符...一、概述二、拷贝数组对象三、合并操作四、参数传递五、数组去重六、字符串转字符数组七、NodeList转数组八、解构变量九、打印日志十、总结 一、概述 **扩展运算符(...)**允许一个表达式在期望多个参数࿰…...
2024/5/4 14:46:12 - 摩根看好的前智能硬件头部品牌双11交易数据极度异常!——是模式创新还是饮鸩止渴?
文 | 螳螂观察 作者 | 李燃 双11狂欢已落下帷幕,各大品牌纷纷晒出优异的成绩单,摩根士丹利投资的智能硬件头部品牌凯迪仕也不例外。然而有爆料称,在自媒体平台发布霸榜各大榜单喜讯的凯迪仕智能锁,多个平台数据都表现出极度异常…...
2024/5/5 18:50:00 - Go语言常用命令详解(二)
文章目录 前言常用命令go bug示例参数说明 go doc示例参数说明 go env示例 go fix示例 go fmt示例 go generate示例 总结写在最后 前言 接着上一篇继续介绍Go语言的常用命令 常用命令 以下是一些常用的Go命令,这些命令可以帮助您在Go开发中进行编译、测试、运行和…...
2024/5/4 14:46:11 - 用欧拉路径判断图同构推出reverse合法性:1116T4
http://cplusoj.com/d/senior/p/SS231116D 假设我们要把 a a a 变成 b b b,我们在 a i a_i ai 和 a i 1 a_{i1} ai1 之间连边, b b b 同理,则 a a a 能变成 b b b 的充要条件是两图 A , B A,B A,B 同构。 必要性显然࿰…...
2024/5/5 2:25:33 - 【NGINX--1】基础知识
1、在 Debian/Ubuntu 上安装 NGINX 在 Debian 或 Ubuntu 机器上安装 NGINX 开源版。 更新已配置源的软件包信息,并安装一些有助于配置官方 NGINX 软件包仓库的软件包: apt-get update apt install -y curl gnupg2 ca-certificates lsb-release debian-…...
2024/5/4 21:24:42 - Hive默认分割符、存储格式与数据压缩
目录 1、Hive默认分割符2、Hive存储格式3、Hive数据压缩 1、Hive默认分割符 Hive创建表时指定的行受限(ROW FORMAT)配置标准HQL为: ... ROW FORMAT DELIMITED FIELDS TERMINATED BY \u0001 COLLECTION ITEMS TERMINATED BY , MAP KEYS TERMI…...
2024/5/5 13:14:22 - 【论文阅读】MAG:一种用于航天器遥测数据中有效异常检测的新方法
文章目录 摘要1 引言2 问题描述3 拟议框架4 所提出方法的细节A.数据预处理B.变量相关分析C.MAG模型D.异常分数 5 实验A.数据集和性能指标B.实验设置与平台C.结果和比较 6 结论 摘要 异常检测是保证航天器稳定性的关键。在航天器运行过程中,传感器和控制器产生大量周…...
2024/5/4 13:16:06 - --max-old-space-size=8192报错
vue项目运行时,如果经常运行慢,崩溃停止服务,报如下错误 FATAL ERROR: CALL_AND_RETRY_LAST Allocation failed - JavaScript heap out of memory 因为在 Node 中,通过JavaScript使用内存时只能使用部分内存(64位系统&…...
2024/5/5 17:03:52 - 基于深度学习的恶意软件检测
恶意软件是指恶意软件犯罪者用来感染个人计算机或整个组织的网络的软件。 它利用目标系统漏洞,例如可以被劫持的合法软件(例如浏览器或 Web 应用程序插件)中的错误。 恶意软件渗透可能会造成灾难性的后果,包括数据被盗、勒索或网…...
2024/5/5 21:10:50 - JS原型对象prototype
让我简单的为大家介绍一下原型对象prototype吧! 使用原型实现方法共享 1.构造函数通过原型分配的函数是所有对象所 共享的。 2.JavaScript 规定,每一个构造函数都有一个 prototype 属性,指向另一个对象,所以我们也称为原型对象…...
2024/5/5 3:37:58 - C++中只能有一个实例的单例类
C中只能有一个实例的单例类 前面讨论的 President 类很不错,但存在一个缺陷:无法禁止通过实例化多个对象来创建多名总统: President One, Two, Three; 由于复制构造函数是私有的,其中每个对象都是不可复制的,但您的目…...
2024/5/4 23:54:30 - python django 小程序图书借阅源码
开发工具: PyCharm,mysql5.7,微信开发者工具 技术说明: python django html 小程序 功能介绍: 用户端: 登录注册(含授权登录) 首页显示搜索图书,轮播图࿰…...
2024/5/5 17:03:21 - 电子学会C/C++编程等级考试2022年03月(一级)真题解析
C/C++等级考试(1~8级)全部真题・点这里 第1题:双精度浮点数的输入输出 输入一个双精度浮点数,保留8位小数,输出这个浮点数。 时间限制:1000 内存限制:65536输入 只有一行,一个双精度浮点数。输出 一行,保留8位小数的浮点数。样例输入 3.1415926535798932样例输出 3.1…...
2024/5/5 15:25:31 - 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...
解析如下:1、长按电脑电源键直至关机,然后再按一次电源健重启电脑,按F8健进入安全模式2、安全模式下进入Windows系统桌面后,按住“winR”打开运行窗口,输入“services.msc”打开服务设置3、在服务界面,选中…...
2022/11/19 21:17:18 - 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。
%读入6幅图像(每一幅图像的大小是564*564) f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...
2022/11/19 21:17:16 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...
win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面,在等待界面中我们需要等待操作结束才能关机,虽然这比较麻烦,但是对系统进行配置和升级…...
2022/11/19 21:17:15 - 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...
有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows,请勿关闭计算机”的提示,要过很久才能进入系统,有的用户甚至几个小时也无法进入,下面就教大家这个问题的解决方法。第一种方法:我们首先在左下角的“开始…...
2022/11/19 21:17:14 - win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...
置信有很多用户都跟小编一样遇到过这样的问题,电脑时发现开机屏幕显现“正在配置Windows Update,请勿关机”(如下图所示),而且还需求等大约5分钟才干进入系统。这是怎样回事呢?一切都是正常操作的,为什么开时机呈现“正…...
2022/11/19 21:17:13 - 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...
Win7系统开机启动时总是出现“配置Windows请勿关机”的提示,没过几秒后电脑自动重启,每次开机都这样无法进入系统,此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一:开机按下F8,在出现的Windows高级启动选…...
2022/11/19 21:17:12 - 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...
有不少windows10系统用户反映说碰到这样一个情况,就是电脑提示正在准备windows请勿关闭计算机,碰到这样的问题该怎么解决呢,现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法:1、2、依次…...
2022/11/19 21:17:11 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...
今天和大家分享一下win7系统重装了Win7旗舰版系统后,每次关机的时候桌面上都会显示一个“配置Windows Update的界面,提示请勿关闭计算机”,每次停留好几分钟才能正常关机,导致什么情况引起的呢?出现配置Windows Update…...
2022/11/19 21:17:10 - 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...
只能是等着,别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚,只能是考虑备份数据后重装系统了。解决来方案一:管理员运行cmd:net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...
2022/11/19 21:17:09 - 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?
原标题:电脑提示“配置Windows Update请勿关闭计算机”怎么办?win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢?一般的方…...
2022/11/19 21:17:08 - 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...
关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!关机提示 windows7 正在配…...
2022/11/19 21:17:05 - 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...
钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...
2022/11/19 21:17:05 - 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...
前几天班里有位学生电脑(windows 7系统)出问题了,具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面,长时间没反应,无法进入系统。这个问题原来帮其他同学也解决过,网上搜了不少资料&#x…...
2022/11/19 21:17:04 - 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...
本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法,并在最后教给你1种保护系统安全的好方法,一起来看看!电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中,添加了1个新功能在“磁…...
2022/11/19 21:17:03 - 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...
许多用户在长期不使用电脑的时候,开启电脑发现电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机。。.这要怎么办呢?下面小编就带着大家一起看看吧!如果能够正常进入系统,建议您暂时移…...
2022/11/19 21:17:02 - 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...
配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!配置windows update失败 还原更改 请勿关闭计算机&#x…...
2022/11/19 21:17:01 - 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...
不知道大家有没有遇到过这样的一个问题,就是我们的win7系统在关机的时候,总是喜欢显示“准备配置windows,请勿关机”这样的一个页面,没有什么大碍,但是如果一直等着的话就要两个小时甚至更久都关不了机,非常…...
2022/11/19 21:17:00 - 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...
当电脑出现正在准备配置windows请勿关闭计算机时,一般是您正对windows进行升级,但是这个要是长时间没有反应,我们不能再傻等下去了。可能是电脑出了别的问题了,来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...
2022/11/19 21:16:59 - 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...
我们使用电脑的过程中有时会遇到这种情况,当我们打开电脑之后,发现一直停留在一个界面:“配置Windows Update失败,还原更改请勿关闭计算机”,等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢࿰…...
2022/11/19 21:16:58 - 如何在iPhone上关闭“请勿打扰”
Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...
2022/11/19 21:16:57