1、tfrecord基础API使用

tfrecord文件格式

         -> tf.train.Example
-> tf.train.Features -> dict{"key": tf.train.Feature}
-> tf.train.Feature -> tf.train.ByteList/FloatList/Int64List

 (1)定义tf.train.ByteList/FloatList/Int64List

favorite_books = [name.encode('utf-8')for name in ["machine learning", "cc150"]]
favorite_books_bytelist = tf.train.BytesList(value = favorite_books)
print(favorite_books_bytelist)hours_floatlist = tf.train.FloatList(value = [15.5, 9.5, 7.0, 8.0])
print(hours_floatlist)age_int64list = tf.train.Int64List(value = [42])
print(age_int64list)
value: "machine learning"
value: "cc150"value: 15.5
value: 9.5
value: 7.0
value: 8.0value: 42

(2)定义features

features = tf.train.Features(feature = {"favorite_books_bytelist": tf.train.Feature(bytes_list = favorite_books_bytelist),"hours_floatlist": tf.train.Feature(float_list = hours_floatlist),"age_int64list": tf.train.Feature(int64_list = age_int64list),}
)
print(features)
feature {key: "age"value {int64_list {value: 42}}
}
feature {key: "favorite_books"value {bytes_list {value: "machine learning"value: "cc150"}}
}
feature {key: "hours"value {float_list {value: 15.5value: 9.5value: 7.0value: 8.0}}
}

(3)定义Example

example = tf.train.Example(features=features)
print(example)
features {feature {key: "age"value {int64_list {value: 42}}}feature {key: "favorite_books"value {bytes_list {value: "machine learning"value: "cc150"}}}feature {key: "hours"value {float_list {value: 15.5value: 9.5value: 7.0value: 8.0}}}
}

(4)将example序列化

因为在存储时需要对内容进行压缩,以减少size。

serialized_example = example.SerializeToString()
print(serialized_example)
b'\n\\\n-\n\x0efavorite_books\x12\x1b\n\x19\n\x10machine learning\n\x05cc150\n\x0c\n\x03age\x12\x05\x1a\x03\n\x01*\n\x1d\n\x05hours\x12\x14\x12\x12\n\x10\x00\x00xA\x00\x00\x18A\x00\x00\xe0@\x00\x00\x00A'

(5)生成tfrecord文件

将序列化后的example存到文件中,生成一个tfrecord文件

output_dir = 'tfrecord_basic'
if not os.path.exists(output_dir):os.mkdir(output_dir)
filename = "test.tfrecords"
filename_fullpath = os.path.join(output_dir, filename) #全路径:文件夹+文件名
with tf.io.TFRecordWriter(filename_fullpath) as writer:for i in range(3):writer.write(serialized_example)#将序列化后的example写进去三次

(6)读取TFRecord文件

1)读取序列化后的example的TFRecord文件

dataset = tf.data.TFRecordDataset([filename_fullpath])#生成TFRecord的dateset
for serialized_example_tensor in dataset:print(serialized_example_tensor)
tf.Tensor(b'\n\\\n-\n\x0efavorite_books\x12\x1b\n\x19\n\x10machine learning\n\x05cc150\n\x0c\n\x03age\x12\x05\x1a\x03\n\x01*\n\x1d\n\x05hours\x12\x14\x12\x12\n\x10\x00\x00xA\x00\x00\x18A\x00\x00\xe0@\x00\x00\x00A', shape=(), dtype=string)
tf.Tensor(b'\n\\\n-\n\x0efavorite_books\x12\x1b\n\x19\n\x10machine learning\n\x05cc150\n\x0c\n\x03age\x12\x05\x1a\x03\n\x01*\n\x1d\n\x05hours\x12\x14\x12\x12\n\x10\x00\x00xA\x00\x00\x18A\x00\x00\xe0@\x00\x00\x00A', shape=(), dtype=string)
tf.Tensor(b'\n\\\n-\n\x0efavorite_books\x12\x1b\n\x19\n\x10machine learning\n\x05cc150\n\x0c\n\x03age\x12\x05\x1a\x03\n\x01*\n\x1d\n\x05hours\x12\x14\x12\x12\n\x10\x00\x00xA\x00\x00\x18A\x00\x00\xe0@\x00\x00\x00A', shape=(), dtype=string)

2)将序列化后的example解析成正常的example,再进行读取

#定义一个字典,字典中定义了每一个feature所对应的类型
expected_features = {"favorite_books": tf.io.VarLenFeature(dtype = tf.string), #变长"hours": tf.io.VarLenFeature(dtype = tf.float32),"age": tf.io.FixedLenFeature([], dtype = tf.int64),
}
dataset = tf.data.TFRecordDataset([filename_fullpath])
for serialized_example_tensor in dataset:#print(serialized_example_tensor)#对于每个数值并未直接打印,而是先解析一下example = tf.io.parse_single_example(serialized_example_tensor,expected_features)print(example)books = tf.sparse.to_dense(example["favorite_books"],default_value=b"")for book in books:print(book.numpy().decode("UTF-8"))
{'favorite_books': <tensorflow.python.framework.sparse_tensor.SparseTensor object at 0x00000125F39D5198>, 'hours': <tensorflow.python.framework.sparse_tensor.SparseTensor object at 0x00000125F39D5278>, 'age': <tf.Tensor: id=164, shape=(), dtype=int64, numpy=42>}
machine learning
cc150
{'favorite_books': <tensorflow.python.framework.sparse_tensor.SparseTensor object at 0x00000125F3999E48>, 'hours': <tensorflow.python.framework.sparse_tensor.SparseTensor object at 0x00000125F39992B0>, 'age': <tf.Tensor: id=183, shape=(), dtype=int64, numpy=42>}
machine learning
cc150
{'favorite_books': <tensorflow.python.framework.sparse_tensor.SparseTensor object at 0x00000125F39D51D0>, 'hours': <tensorflow.python.framework.sparse_tensor.SparseTensor object at 0x00000125F39D52B0>, 'age': <tf.Tensor: id=202, shape=(), dtype=int64, numpy=42>}
machine learning
cc150

(7)将TFRecord存储成压缩文件(330B vs 127B)

压缩文件与普通文件有很多相同地方,在下面主要介绍不同的地方,其他未介绍的地方,应与普通文件的用法相同。

filename_fullpath_zip = filename_fullpath + '.zip'
options = tf.io.TFRecordOptions(compression_type = "GZIP")
with tf.io.TFRecordWriter(filename_fullpath_zip, options) as writer:for i in range(3):writer.write(serialized_example)
dataset_zip = tf.data.TFRecordDataset([filename_fullpath_zip], compression_type= "GZIP")
for serialized_example_tensor in dataset_zip:example = tf.io.parse_single_example(serialized_example_tensor,expected_features)books = tf.sparse.to_dense(example["favorite_books"],default_value=b"")for book in books:print(book.numpy().decode("UTF-8"))
machine learning
cc150
machine learning
cc150
machine learning
cc150

2、实战-将csv文件转化为tfrecord文件

在csv_reader_dataset中,我们在map函数中对每一行进行解析。

在parse_csv_line中,我们把每一行给拆成了前八个和后一个,即x和y。这样csv_reader_dataset返回的dataset里,每一个batch都是两个元素,即x_batch和y_batch。

而batch解绑定直接用了for循环,如下,

#接下来遍历这三个dataset,把取到的数据放到tfrecord中去
def serialize_example(x, y):"""Converts x, y to tf.train.Example and serialize"""input_feautres = tf.train.FloatList(value = x)label = tf.train.FloatList(value = y)features = tf.train.Features(feature = {"input_features": tf.train.Feature(float_list = input_feautres),"label": tf.train.Feature(float_list = label)})example = tf.train.Example(features = features)return example.SerializeToString()#将从csv中读取的dataset转化成tf.example,再写到tf.record文件中。
def csv_dataset_to_tfrecords(base_filename, dataset,n_shards, #存成多少个文件steps_per_shard,compression_type = None):options = tf.io.TFRecordOptions(compression_type = compression_type)all_filenames = []for shard_id in range(n_shards):#遍历每一个要生成的小文件filename_fullpath = '{}_{:05d}-of-{:05d}'.format(base_filename, shard_id, n_shards)with tf.io.TFRecordWriter(filename_fullpath, options) as writer:#for x_batch, y_batch in dataset.take(steps_per_shard):for x_batch, y_batch in dataset.skip(shard_id * steps_per_shard).take(steps_per_shard):#取得的每个数据都是一个batchfor x_example, y_example in zip(x_batch, y_batch):#解batchwriter.write(serialize_example(x_example, y_example))all_filenames.append(filename_fullpath)return all_filenames

生成不压缩的tfrecord文件:

#生成不压缩的tfrecord文件
n_shards = 20
train_steps_per_shard = 11610 // batch_size // n_shards #得到在每一个shard上,需要有多少个batch
valid_steps_per_shard = 3880 // batch_size // n_shards
test_steps_per_shard = 5170 // batch_size // n_shards#输出文件夹
output_dir = "generate_tfrecords"
if not os.path.exists(output_dir):os.mkdir(output_dir)train_basename = os.path.join(output_dir, "train")
valid_basename = os.path.join(output_dir, "valid")
test_basename = os.path.join(output_dir, "test")train_tfrecord_filenames = csv_dataset_to_tfrecords(train_basename, train_set, n_shards, train_steps_per_shard, None)
valid_tfrecord_filenames = csv_dataset_to_tfrecords(valid_basename, valid_set, n_shards, valid_steps_per_shard, None)
test_tfrecord_fielnames = csv_dataset_to_tfrecords(test_basename, test_set, n_shards, test_steps_per_shard, None)

生成压缩后的tfrecord文件:

#生成压缩后的tfrecord文件
n_shards = 20
train_steps_per_shard = 11610 // batch_size // n_shards
valid_steps_per_shard = 3880 // batch_size // n_shards
test_steps_per_shard = 5170 // batch_size // n_shardsoutput_dir = "generate_tfrecords_zip"
if not os.path.exists(output_dir):os.mkdir(output_dir)train_basename = os.path.join(output_dir, "train")
valid_basename = os.path.join(output_dir, "valid")
test_basename = os.path.join(output_dir, "test")train_tfrecord_filenames = csv_dataset_to_tfrecords(train_basename, train_set, n_shards, train_steps_per_shard,compression_type = "GZIP")
valid_tfrecord_filenames = csv_dataset_to_tfrecords(valid_basename, valid_set, n_shards, valid_steps_per_shard,compression_type = "GZIP")
test_tfrecord_fielnames = csv_dataset_to_tfrecords(test_basename, test_set, n_shards, test_steps_per_shard,compression_type = "GZIP")

3、实战-读取tfrecord文件

expected_features = {"input_features": tf.io.FixedLenFeature([8], dtype=tf.float32),"label": tf.io.FixedLenFeature([1], dtype=tf.float32)
}def parse_example(serialized_example):example = tf.io.parse_single_example(serialized_example,expected_features)return example["input_features"], example["label"]def tfrecords_reader_dataset(filenames, n_readers=5,batch_size=32, n_parse_threads=5,shuffle_buffer_size=10000):dataset = tf.data.Dataset.list_files(filenames)dataset = dataset.repeat()dataset = dataset.interleave(lambda filename: tf.data.TFRecordDataset(filename, compression_type = "GZIP"),cycle_length = n_readers)dataset.shuffle(shuffle_buffer_size)dataset = dataset.map(parse_example,num_parallel_calls=n_parse_threads)dataset = dataset.batch(batch_size)return datasettfrecords_train = tfrecords_reader_dataset(train_tfrecord_filenames,batch_size = 3)
for x_batch, y_batch in tfrecords_train.take(2):print(x_batch)print(y_batch)
tf.Tensor(
[[-1.1334558   1.0731637  -0.38411045 -0.19008651 -0.45323023 -0.068158521.0292323  -1.3457658 ][-1.0591781   1.3935647  -0.02633197 -0.1100676  -0.6138199  -0.096959350.3247131  -0.03747724][-0.24628098  1.2333642  -0.41765466  0.02003763  0.16009521  0.15687561-0.7250671   0.6965625 ]], shape=(3, 8), dtype=float32)
tf.Tensor(
[[1.598][0.672][1.849]], shape=(3, 1), dtype=float32)
tf.Tensor(
[[ 0.51780826  0.6726626   0.15955476 -0.22812782  0.06029374 -0.038686820.94524986 -1.2808508 ][-0.07763786  0.91296333 -0.33707762 -0.27174184 -0.81251556  0.05529061-0.6644131   0.5916997 ][-0.3680344  -1.0094423   9.957168    8.32342    -1.1128273  -0.144638721.3418335  -0.21224862]], shape=(3, 8), dtype=float32)
tf.Tensor(
[[1.883][1.652][1.406]], shape=(3, 1), dtype=float32)

附全部代码:

import matplotlib as mpl
import matplotlib.pyplot as plt
%matplotlib inline
import numpy as np
import sklearn
import pandas as pd
import os
import sys
import time
import tensorflow as tffrom tensorflow import kerasprint(tf.__version__)
print(sys.version_info)
for module in mpl, np, pd, sklearn, tf, keras:print(module.__name__, module.__version__)source_dir = "./generate_csv/"
print(os.listdir(source_dir))def get_filenames_by_prefix(source_dir, prefix_name):all_files = os.listdir(source_dir) #获取该目录下所有的文件名results = []for filename in all_files:if filename.startswith(prefix_name):results.append(os.path.join(source_dir, filename))#全路径return resultstrain_filenames = get_filenames_by_prefix(source_dir, "train")
valid_filenames = get_filenames_by_prefix(source_dir, "valid")
test_filenames = get_filenames_by_prefix(source_dir, "test")#读取csv文件
def parse_csv_line(line, n_fields = 9):defs = [tf.constant(np.nan)] * n_fieldsparsed_fields = tf.io.decode_csv(line, record_defaults=defs)x = tf.stack(parsed_fields[0:-1])y = tf.stack(parsed_fields[-1:])return x, ydef csv_reader_dataset(filenames, n_readers=5,batch_size=32, n_parse_threads=5,shuffle_buffer_size=10000):dataset = tf.data.Dataset.list_files(filenames)dataset = dataset.repeat()dataset = dataset.interleave(lambda filename: tf.data.TextLineDataset(filename).skip(1),cycle_length = n_readers)dataset.shuffle(shuffle_buffer_size)dataset = dataset.map(parse_csv_line,num_parallel_calls=n_parse_threads)dataset = dataset.batch(batch_size)return datasetbatch_size = 32
train_set = csv_reader_dataset(train_filenames,batch_size = batch_size)
valid_set = csv_reader_dataset(valid_filenames,batch_size = batch_size)
test_set = csv_reader_dataset(test_filenames,batch_size = batch_size)#接下来遍历这三个dataset,把取到的数据放到tfrecord中去
def serialize_example(x, y):"""Converts x, y to tf.train.Example and serialize"""input_feautres = tf.train.FloatList(value = x)label = tf.train.FloatList(value = y)features = tf.train.Features(feature = {"input_features": tf.train.Feature(float_list = input_feautres),"label": tf.train.Feature(float_list = label)})example = tf.train.Example(features = features)return example.SerializeToString()#将从csv中读取的dataset转化成tf.example,再写到tf.record文件中。
def csv_dataset_to_tfrecords(base_filename, dataset,n_shards, #存成多少个文件steps_per_shard,compression_type = None):options = tf.io.TFRecordOptions(compression_type = compression_type)all_filenames = []for shard_id in range(n_shards):#遍历每一个要生成的小文件filename_fullpath = '{}_{:05d}-of-{:05d}'.format(base_filename, shard_id, n_shards)with tf.io.TFRecordWriter(filename_fullpath, options) as writer:#for x_batch, y_batch in dataset.take(steps_per_shard):for x_batch, y_batch in dataset.skip(shard_id * steps_per_shard).take(steps_per_shard):#取得的每个数据都是一个batchfor x_example, y_example in zip(x_batch, y_batch):#解batchwriter.write(serialize_example(x_example, y_example))all_filenames.append(filename_fullpath)return all_filenames#生成不压缩的tfrecord文件
n_shards = 20
train_steps_per_shard = 11610 // batch_size // n_shards #得到在每一个shard上,需要有多少个batch
valid_steps_per_shard = 3880 // batch_size // n_shards
test_steps_per_shard = 5170 // batch_size // n_shards#输出文件夹
output_dir = "generate_tfrecords"
if not os.path.exists(output_dir):os.mkdir(output_dir)train_basename = os.path.join(output_dir, "train")
valid_basename = os.path.join(output_dir, "valid")
test_basename = os.path.join(output_dir, "test")train_tfrecord_filenames = csv_dataset_to_tfrecords(train_basename, train_set, n_shards, train_steps_per_shard, None)
valid_tfrecord_filenames = csv_dataset_to_tfrecords(valid_basename, valid_set, n_shards, valid_steps_per_shard, None)
test_tfrecord_fielnames = csv_dataset_to_tfrecords(test_basename, test_set, n_shards, test_steps_per_shard, None)#生成压缩后的tfrecord文件
n_shards = 20
train_steps_per_shard = 11610 // batch_size // n_shards
valid_steps_per_shard = 3880 // batch_size // n_shards
test_steps_per_shard = 5170 // batch_size // n_shardsoutput_dir = "generate_tfrecords_zip"
if not os.path.exists(output_dir):os.mkdir(output_dir)train_basename = os.path.join(output_dir, "train")
valid_basename = os.path.join(output_dir, "valid")
test_basename = os.path.join(output_dir, "test")train_tfrecord_filenames = csv_dataset_to_tfrecords(train_basename, train_set, n_shards, train_steps_per_shard,compression_type = "GZIP")
valid_tfrecord_filenames = csv_dataset_to_tfrecords(valid_basename, valid_set, n_shards, valid_steps_per_shard,compression_type = "GZIP")
test_tfrecord_fielnames = csv_dataset_to_tfrecords(test_basename, test_set, n_shards, test_steps_per_shard,compression_type = "GZIP")expected_features = {"input_features": tf.io.FixedLenFeature([8], dtype=tf.float32),"label": tf.io.FixedLenFeature([1], dtype=tf.float32)
}def parse_example(serialized_example):example = tf.io.parse_single_example(serialized_example,expected_features)return example["input_features"], example["label"]def tfrecords_reader_dataset(filenames, n_readers=5,batch_size=32, n_parse_threads=5,shuffle_buffer_size=10000):dataset = tf.data.Dataset.list_files(filenames)dataset = dataset.repeat()dataset = dataset.interleave(lambda filename: tf.data.TFRecordDataset(filename, compression_type = "GZIP"),cycle_length = n_readers)dataset.shuffle(shuffle_buffer_size)dataset = dataset.map(parse_example,num_parallel_calls=n_parse_threads)dataset = dataset.batch(batch_size)return datasetbatch_size = 32
tfrecords_train_set = tfrecords_reader_dataset(train_tfrecord_filenames, batch_size = batch_size)
tfrecords_valid_set = tfrecords_reader_dataset(valid_tfrecord_filenames, batch_size = batch_size)
tfrecords_test_set = tfrecords_reader_dataset(test_tfrecord_fielnames, batch_size = batch_size)model = keras.models.Sequential([keras.layers.Dense(30, activation='relu',input_shape=[8]),keras.layers.Dense(1),
])
model.compile(loss="mean_squared_error", optimizer="sgd")
callbacks = [keras.callbacks.EarlyStopping(patience=5, min_delta=1e-2)]history = model.fit(tfrecords_train_set,validation_data = tfrecords_valid_set,steps_per_epoch = 11160 // batch_size,validation_steps = 3870 // batch_size,epochs = 100,callbacks = callbacks)model.evaluate(tfrecords_test_set, steps = 5160 // batch_size)

 

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 2020硝化工艺作业考试题库及硝化工艺实操考试视频

    题库来源:安全生产模拟考试一点通公众号小程序2020硝化工艺作业考试题库及硝化工艺实操考试视频,包含硝化工艺作业考试题库答案解析及硝化工艺实操考试视频练习。由安全生产模拟考试一点通公众号结合国家硝化工艺考试最新大纲及硝化工艺考试真题出具,有助于硝化工艺理论考试…...

    2024/4/28 5:07:53
  2. 第20 章 Docker Swarm 集群实践

    Docker Swarm 集群实践 文章目录Docker Swarm 集群实践**Swarm介绍****Swarm 特点****Swarm架构****Swarm关键概念**1)Swarm2)Node3)服务(Service)4)任务(Task)5)命令**Swarm工作方式**1)Node2)Service(服务, 任务, 容器)3)任务与调度4)服务副本与全局服务**Swa…...

    2024/4/28 6:54:41
  3. 2020烟花爆竹经营单位主要负责人考试及烟花爆竹经营单位主要负责人模拟考试软件

    题库来源:安全生产模拟考试一点通公众号小程序2020烟花爆竹经营单位主要负责人考试及烟花爆竹经营单位主要负责人模拟考试软件,包含烟花爆竹经营单位主要负责人考试答案解析及烟花爆竹经营单位主要负责人模拟考试软件练习。由安全生产模拟考试一点通公众号结合国家烟花爆竹经…...

    2024/4/28 3:20:42
  4. 云服务的基本知识

    云服务的基本知识1.云计算的演进企业IT架构的演进历史企业IT基础设施面临的痛点企业数字化转型面临的挑战云计算技术发展历程2.云计算的概念概念五大基本特质3.云服务的演进云计算发展阶段云计算的四类部署模式4.云服务的主要分类-按服务的层级5.云计算中的主流技术概念什么是虚…...

    2024/4/21 13:22:08
  5. 《闲扯Redis十一》Redis 有序集合对象底层实现

    一、前言Redis 提供了5种数据类型:String(字符串)、Hash(哈希)、List(列表)、Set(集合)、Zset(有序集合),理解每种数据类型的特点对于redis的开发和运维非常重要。原文解析备注: 本节中涉及到的跳跃表实现,已经在上节《闲扯Redis十》Redis 跳跃表的结构实现一文中…...

    2024/3/22 19:37:41
  6. linux通过Nginx日志查询响应慢连接

    linux通过Nginx日志查询响应慢连接查询连接响应时间大于5秒cat /usr/local/nginx/logs/access.log | awk $6>5打印满连接语句tail -100000 /usr/local/nginx/logs/access.log | awk $6>5| awk {print "url地址="$13";请求目标="$9 ";资源大…...

    2024/4/28 4:18:00
  7. Python Data Analysis_移动平均值_statsmodels子库(ModuleNotFoundError: No module named ‘pandas.stats‘)

    移动平均值原始代码:import matplotlib.pyplot as plt import statsmodels.api as sm from pandas.stats.moments import rolling_meandata_loader = sm.datasets.sunspots.load_pandas() df = data_loader.data year_range = df["YEAR"].values plt.plot(year_rang…...

    2024/3/27 11:20:49
  8. Mybatis的进阶使用

    继上篇mybatis基础 https://blog.csdn.net/weixin_45262118/article/details/108482350 1.版本切换切换环境 (environment)<environments default="development">//dafault 默认使用的数据库id<environment id="development">//数据库id<tr…...

    2024/3/15 12:08:53
  9. 【Linux】Linux终端常用命令 -- 网络

    Linux终端常用命令 – 网络 网络 ping — 向网络上的主机发送应答请求ping [主机地址]telnet — 连接并登录到远程计算机Telnet 工具可以让我们连接并登录到远程计算机。 用法:telnet [主机地址]ftp — 文件上传下载 # 1、连接并登录远程主机 ftp [主机地址]# 2、接下来会提示…...

    2024/4/23 20:45:33
  10. CentOS系统下yum安装lnmp+wordpress

    本博客纯属本人编辑,如有雷同纯属巧合 一、安装mariadb、mariadb-server、nginx、php-fpm yum install -y mariadb mariadb-server nginx php-fpm 等待安装完成,启动服务 ** 二、编辑nginx配置文件 ** 首先要在/目录下创建/www目录 [root@localhost ~]# cat /etc/nginx/fastc…...

    2024/4/24 4:18:26
  11. LeetCode 39 组合总和 HERODING的LeetCode之路

    给定一个无重复元素的数组 candidates 和一个目标数 target ,找出 candidates 中所有可以使数字和为 target 的组合。 candidates 中的数字可以无限制重复被选取。 说明: 所有数字(包括 target)都是正整数。 解集不能包含重复的组合。 示例 1: 输入:candidates = [2,3,6,…...

    2024/3/30 1:07:14
  12. TS:在对象中定义一个方法

    var myObj = {myMethod: function(params) {// ...do something}// 或者 这样写也可以myOtherMethod(params) {// ...do something else} };参考资料: TS官方文档...

    2024/4/22 5:00:04
  13. JAVA设计模式之生成器模式

    生成器模式 定义 将一个复杂对象的构建与他的表示分离,使得同样的构建过程可以创建不同的表示 结构与说明Builder: 生成器接口,定义创建一个Product对象所需的各个部件的操作。 ConcreteBuilder: 具体的生成器实现,实现各个部件的创建,并负责组装Product对象的各个部件,同…...

    2024/3/15 12:08:48
  14. Python中如何读取JSON内容

    Python中读取JSON主要用到load()和dump()方法,load()方法作用是将字符串(str)内容转换成JSON格式(list),直接按list方式读取即可。dump()方法是将JSON格式(list)转换成字符格式,这个刚好跟load()作用相反。实际应用中,我们读取的可能是从第三方读取到的数据,直接就是…...

    2024/4/27 2:46:48
  15. outlook设置数据文件位置

    HKEY_CURRENT_USER\Software\Microsoft\Office\16.0\Outlook其中16.0表示Outlook的版本,是2016版15.0表示Outlook201314.0表示Outlook2010可能会在目录下找到14.0,15.0,16.0,请根据电脑中安装的Outlook版本来选择。注册表找到ForcePSTPath 输入数据位置...

    2024/3/15 12:08:45
  16. angular2 数组去重方法

    const newArr = Array.from(new Set(this.userDataSource)); this.userDataSource = newArr;...

    2024/3/27 20:19:45
  17. Vue3.0 composition-api的使用

    ref 接受一个参数值并返回一个响应式且可改变的ref对象1. ref对象拥有一个指向内部值的单一属性 .value2. 当ref在模板中使用的时候,他会自动解套,无需在模板内额外书写 .valueconst count = ref(0)const countAdd = ()=>{count.value ++}reactive 接收一个普通对象然后返…...

    2024/4/28 6:27:31
  18. 国标GB28181协议客户端EasyGBS视频平台设备正常情况下为什么无法播放ws-flv视频流?

    近几年,国家公安机关一直在强推国标GB28181协议,也有很多厂家积极响应号召,因此很多项目团队也想依托于国标GB28181协议来进行视频平台的搭建。EasyGBS是能够接入国标GB28181协议摄像头的视频平台,能够实现web浏览器、手机浏览器、微信、PC客户端等各种终端无插件播放。Eas…...

    2024/4/11 15:34:14
  19. Spring源码深度解析(郝佳)-学习-资源匹配-doMatch

    Spring中有一个这样的工具方法,在代码中很多的其他地方都用到过,比如资源加载,web url匹配,等 AntPathMatcher.java这个类的doMatch方法 那我们写一个main方法来测试一下 import org.springframework.util.StringUtils; import java.util.LinkedList; import java.util.Li…...

    2024/4/22 21:46:06
  20. 2020机修钳工(中级)复审模拟考试及机修钳工(中级)实操考试视频

    题库来源:安全生产模拟考试一点通公众号小程序2020机修钳工(中级)复审模拟考试及机修钳工(中级)实操考试视频,包含机修钳工(中级)复审模拟考试答案解析及机修钳工(中级)实操考试视频练习。由安全生产模拟考试一点通公众号结合国家机修钳工(中级)考试最新大纲及机修…...

    2024/3/15 12:08:41

最新文章

  1. kotlin 编写一个简单的天气预报app (七)使用material design

    一、优化思路 对之前的天气预报的app进行了优化&#xff0c;原先的天气预报程序逻辑是这样的。 使用text和button组合了一个输入城市&#xff0c;并请求openweathermap对应数据&#xff0c;并显示的功能。 但是搜索城市的时候&#xff0c;可能会有错误&#xff0c;比如大小写…...

    2024/4/28 18:17:24
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. dp小兰走迷宫

    昨天学习了bfs的基本概念&#xff0c;今天来做一道经典习题练练手吧&#xff01; bfs常用的两类题型 1.从A出发是否存在到达B的路径(dfs也可) 2.从A出发到B的最短路径&#xff08;数小:<20才能用dfs&#xff09; 遗留的那个问题的答案- 题目&#xff1a;走迷宫 #incl…...

    2024/4/28 3:06:28
  4. 微信小程序的页面交互2

    一、自定义属性 &#xff08;1&#xff09;定义&#xff1a; 微信小程序中的自定义属性实际上是由data-前缀加上一个自定义属性名组成。 &#xff08;2&#xff09;如何获取自定义属性的值&#xff1f; 用到target或currentTarget对象的dataset属性可以获取数据 &#xff…...

    2024/4/25 11:41:25
  5. 416. 分割等和子集问题(动态规划)

    题目 题解 class Solution:def canPartition(self, nums: List[int]) -> bool:# badcaseif not nums:return True# 不能被2整除if sum(nums) % 2 ! 0:return False# 状态定义&#xff1a;dp[i][j]表示当背包容量为j&#xff0c;用前i个物品是否正好可以将背包填满&#xff…...

    2024/4/28 4:04:40
  6. 【Java】ExcelWriter自适应宽度工具类(支持中文)

    工具类 import org.apache.poi.ss.usermodel.Cell; import org.apache.poi.ss.usermodel.CellType; import org.apache.poi.ss.usermodel.Row; import org.apache.poi.ss.usermodel.Sheet;/*** Excel工具类** author xiaoming* date 2023/11/17 10:40*/ public class ExcelUti…...

    2024/4/28 12:01:04
  7. Spring cloud负载均衡@LoadBalanced LoadBalancerClient

    LoadBalance vs Ribbon 由于Spring cloud2020之后移除了Ribbon&#xff0c;直接使用Spring Cloud LoadBalancer作为客户端负载均衡组件&#xff0c;我们讨论Spring负载均衡以Spring Cloud2020之后版本为主&#xff0c;学习Spring Cloud LoadBalance&#xff0c;暂不讨论Ribbon…...

    2024/4/28 16:34:55
  8. TSINGSEE青犀AI智能分析+视频监控工业园区周界安全防范方案

    一、背景需求分析 在工业产业园、化工园或生产制造园区中&#xff0c;周界防范意义重大&#xff0c;对园区的安全起到重要的作用。常规的安防方式是采用人员巡查&#xff0c;人力投入成本大而且效率低。周界一旦被破坏或入侵&#xff0c;会影响园区人员和资产安全&#xff0c;…...

    2024/4/27 12:24:46
  9. VB.net WebBrowser网页元素抓取分析方法

    在用WebBrowser编程实现网页操作自动化时&#xff0c;常要分析网页Html&#xff0c;例如网页在加载数据时&#xff0c;常会显示“系统处理中&#xff0c;请稍候..”&#xff0c;我们需要在数据加载完成后才能继续下一步操作&#xff0c;如何抓取这个信息的网页html元素变化&…...

    2024/4/28 12:01:03
  10. 【Objective-C】Objective-C汇总

    方法定义 参考&#xff1a;https://www.yiibai.com/objective_c/objective_c_functions.html Objective-C编程语言中方法定义的一般形式如下 - (return_type) method_name:( argumentType1 )argumentName1 joiningArgument2:( argumentType2 )argumentName2 ... joiningArgu…...

    2024/4/28 12:01:03
  11. 【洛谷算法题】P5713-洛谷团队系统【入门2分支结构】

    &#x1f468;‍&#x1f4bb;博客主页&#xff1a;花无缺 欢迎 点赞&#x1f44d; 收藏⭐ 留言&#x1f4dd; 加关注✅! 本文由 花无缺 原创 收录于专栏 【洛谷算法题】 文章目录 【洛谷算法题】P5713-洛谷团队系统【入门2分支结构】&#x1f30f;题目描述&#x1f30f;输入格…...

    2024/4/28 12:01:03
  12. 【ES6.0】- 扩展运算符(...)

    【ES6.0】- 扩展运算符... 文章目录 【ES6.0】- 扩展运算符...一、概述二、拷贝数组对象三、合并操作四、参数传递五、数组去重六、字符串转字符数组七、NodeList转数组八、解构变量九、打印日志十、总结 一、概述 **扩展运算符(...)**允许一个表达式在期望多个参数&#xff0…...

    2024/4/28 16:07:14
  13. 摩根看好的前智能硬件头部品牌双11交易数据极度异常!——是模式创新还是饮鸩止渴?

    文 | 螳螂观察 作者 | 李燃 双11狂欢已落下帷幕&#xff0c;各大品牌纷纷晒出优异的成绩单&#xff0c;摩根士丹利投资的智能硬件头部品牌凯迪仕也不例外。然而有爆料称&#xff0c;在自媒体平台发布霸榜各大榜单喜讯的凯迪仕智能锁&#xff0c;多个平台数据都表现出极度异常…...

    2024/4/27 21:08:20
  14. Go语言常用命令详解(二)

    文章目录 前言常用命令go bug示例参数说明 go doc示例参数说明 go env示例 go fix示例 go fmt示例 go generate示例 总结写在最后 前言 接着上一篇继续介绍Go语言的常用命令 常用命令 以下是一些常用的Go命令&#xff0c;这些命令可以帮助您在Go开发中进行编译、测试、运行和…...

    2024/4/28 9:00:42
  15. 用欧拉路径判断图同构推出reverse合法性:1116T4

    http://cplusoj.com/d/senior/p/SS231116D 假设我们要把 a a a 变成 b b b&#xff0c;我们在 a i a_i ai​ 和 a i 1 a_{i1} ai1​ 之间连边&#xff0c; b b b 同理&#xff0c;则 a a a 能变成 b b b 的充要条件是两图 A , B A,B A,B 同构。 必要性显然&#xff0…...

    2024/4/27 18:40:35
  16. 【NGINX--1】基础知识

    1、在 Debian/Ubuntu 上安装 NGINX 在 Debian 或 Ubuntu 机器上安装 NGINX 开源版。 更新已配置源的软件包信息&#xff0c;并安装一些有助于配置官方 NGINX 软件包仓库的软件包&#xff1a; apt-get update apt install -y curl gnupg2 ca-certificates lsb-release debian-…...

    2024/4/28 4:14:21
  17. Hive默认分割符、存储格式与数据压缩

    目录 1、Hive默认分割符2、Hive存储格式3、Hive数据压缩 1、Hive默认分割符 Hive创建表时指定的行受限&#xff08;ROW FORMAT&#xff09;配置标准HQL为&#xff1a; ... ROW FORMAT DELIMITED FIELDS TERMINATED BY \u0001 COLLECTION ITEMS TERMINATED BY , MAP KEYS TERMI…...

    2024/4/27 13:52:15
  18. 【论文阅读】MAG:一种用于航天器遥测数据中有效异常检测的新方法

    文章目录 摘要1 引言2 问题描述3 拟议框架4 所提出方法的细节A.数据预处理B.变量相关分析C.MAG模型D.异常分数 5 实验A.数据集和性能指标B.实验设置与平台C.结果和比较 6 结论 摘要 异常检测是保证航天器稳定性的关键。在航天器运行过程中&#xff0c;传感器和控制器产生大量周…...

    2024/4/27 13:38:13
  19. --max-old-space-size=8192报错

    vue项目运行时&#xff0c;如果经常运行慢&#xff0c;崩溃停止服务&#xff0c;报如下错误 FATAL ERROR: CALL_AND_RETRY_LAST Allocation failed - JavaScript heap out of memory 因为在 Node 中&#xff0c;通过JavaScript使用内存时只能使用部分内存&#xff08;64位系统&…...

    2024/4/28 12:00:58
  20. 基于深度学习的恶意软件检测

    恶意软件是指恶意软件犯罪者用来感染个人计算机或整个组织的网络的软件。 它利用目标系统漏洞&#xff0c;例如可以被劫持的合法软件&#xff08;例如浏览器或 Web 应用程序插件&#xff09;中的错误。 恶意软件渗透可能会造成灾难性的后果&#xff0c;包括数据被盗、勒索或网…...

    2024/4/28 12:00:58
  21. JS原型对象prototype

    让我简单的为大家介绍一下原型对象prototype吧&#xff01; 使用原型实现方法共享 1.构造函数通过原型分配的函数是所有对象所 共享的。 2.JavaScript 规定&#xff0c;每一个构造函数都有一个 prototype 属性&#xff0c;指向另一个对象&#xff0c;所以我们也称为原型对象…...

    2024/4/27 22:51:49
  22. C++中只能有一个实例的单例类

    C中只能有一个实例的单例类 前面讨论的 President 类很不错&#xff0c;但存在一个缺陷&#xff1a;无法禁止通过实例化多个对象来创建多名总统&#xff1a; President One, Two, Three; 由于复制构造函数是私有的&#xff0c;其中每个对象都是不可复制的&#xff0c;但您的目…...

    2024/4/28 7:31:46
  23. python django 小程序图书借阅源码

    开发工具&#xff1a; PyCharm&#xff0c;mysql5.7&#xff0c;微信开发者工具 技术说明&#xff1a; python django html 小程序 功能介绍&#xff1a; 用户端&#xff1a; 登录注册&#xff08;含授权登录&#xff09; 首页显示搜索图书&#xff0c;轮播图&#xff0…...

    2024/4/28 8:32:05
  24. 电子学会C/C++编程等级考试2022年03月(一级)真题解析

    C/C++等级考试(1~8级)全部真题・点这里 第1题:双精度浮点数的输入输出 输入一个双精度浮点数,保留8位小数,输出这个浮点数。 时间限制:1000 内存限制:65536输入 只有一行,一个双精度浮点数。输出 一行,保留8位小数的浮点数。样例输入 3.1415926535798932样例输出 3.1…...

    2024/4/27 20:28:35
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57