提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • 前言
    • 标题
  • 一、Griffin介绍
    • 起源
  • 二、修改配置文件及编译
    • 2.1 环境准备
    • 2.2 获取源码包
    • 2.3 修改配置文件
    • 2.4 MVN编译
  • 三、安装
  • 四、编译UI
  • 五、demo测试
  • 总结


前言

Griffin是一个应用于分布式数据系统中的开源数据质量解决方案,例如在Hadoop, Spark, Storm等分布式系统中,Griffin提供了一整套统一的流程来定义和检测数据集的质量并及时报告问题。Apache Griffin是一个开源的大数据数据质量解决方案,它支持批处理和流模式两种数据质量检测方式,可以从不同维度度量数据资产,从而提升数据的准确度和可信度。例如:离线任务执行完毕后检查源端和目标端的数据数量是否一致,源表的数据空值等


标题

一、Griffin介绍

起源

在eBay,当人们在处理大数据(Hadoop或者其它streaming系统)的时候,数据质量的检测是一个挑战。不同的团队开发了他们自己的工具在其专业领域检测和分析数据质量问题。于是我们希望能建立一个普遍适用的平台,提供共享基础设施和通用的特性来解决常见的数据质量问题,以此得到可信度高的数据。
目前来说,当数据量达到一定程度并且有跨越多个平台时(streaming数据和batch数据),数据数量验证将是十分费时费力的。拿eBay的实时个性化平台举个例子,每天我们都要处理大约600M的数据,而在如此复杂的环境和庞大的规模中,数据质量问题则成了一个很大的挑战。
在eBay的数据处理中,发现存在着如下问题:

  1.  当数据从不同的数据源流向不同的应用系统的时候,缺少端到端的统一视图来追踪数据沿袭(Data Lineage)。这也就导致了在识别和解决数据质量问题上要花费许多不必要的时间。
    
  2.  缺少一个实时的数据质量检测系统。我们需要这样一个系统:数据资产(Data Asset)注册,数据质量模型定义,数据质量结果可视化、可监控,当检测到问题时,可以及时发出警报。
    
  3.  缺乏一个共享平台和API服务,让每个项目组无需维护自己的软硬件环境就能解决常见的数据质量问题。为了解决以上种种问题,我们决定开发Griffin这个平台。Griffin是一个应用于分布式数据系统中的开源数据质量解决方案,例如在Hadoop, Spark, Storm等分布式系统中,Griffin提供了一整套统一的流程来定义和检测数据集的质量并及时报告问题。
    

在这里插入图片描述

二、修改配置文件及编译

2.1 环境准备

				安装之前请确认下面的组件已经安装。如果有没有安装的可以看官网或博客。

Git (如果直接下载的对应的releases版,可以不需要)

JDK 1.8 (版本或更高)

Maven(Apache Maven 3.6.3)

Mysql 数据库 (可以是 PostgreSQL,mysql版本5.7 )

npm(版本6.14.6)(version 6.0.0+,用于编译ui模块)

Scala (版本2.11.8)

Hadoop (版本3.0.0或更高版本)

Hive (版本2.1.1)

Spark (版本2.4.0)

Livy (版本0.5.0)

ElasticSearch(版本5.0或更高版本)

Zookeeper (版本3.4.5)

2.2 获取源码包

      2.2.1下载对应 release 版下载: wget https://github.com/apache/griffin/archive/griffin-0.5.0.tar.gz解压: tar -zxf griffin-0.5.0.tar.gz -C /usr/griffin/

2.3 修改配置文件

	  2.3.1 配置MySQL因为Griffin使用了 Quartz 进行任务的调度,因此需要在MySQL中创建Quartz 调度器用到的库。并进行初始化在MySQL服务器中执行命令,创建一个 quartz 库[root@cdh04 ~]# mysql -uroot -e "create database quartz" -pbigdata -hcdh01在下载的源码中service/src/main/resources/Init_quartz_mysql_innodb.sql找到sql脚本,上传到Mysql Service, 使用Init_quartz_mysql_innodb.sql在MySQL中初始化 Quartz。[root@cdh04 ~]# cd /usr/griffin/griffin-griffin-0.5.0/service/src/main/resources[root@cdh04 resources]# mysql -hcdh01 -uroot -pbigdata quartz < ./Init_quartz_mysql_innodb.sql2.3.2 配置环境变量export下面的变量。或者创建一个griffin_env.sh文件,写入下面的内容,并将脚本配置到.bashrc[root@cdh04 ~]# vim .bashrcexport JAVA_HOME=/usr/java/jdk1.8export HADOOP_HOME=/opt/cloudera/parcels/CDH/lib/hadoopexport HADOOP_COMMON_HOME=/opt/cloudera/parcels/CDH/lib/hadoopexport HADOOP_COMMON_LIB_NATIVE_DIR=/opt/cloudera/parcels/CDH/lib/hadoop/lib/nativeexport HADOOP_HDFS_HOME=/opt/cloudera/parcels/CDH/lib/hadoop-hdfsexport HADOOP_INSTALL=/opt/cloudera/parcels/CDH/lib/hadoopexport HADOOP_MAPRED_HOME=/opt/cloudera/parcels/CDH/lib/hadoop-mapreduceexport HADOOP_USER_CLASSPATH_FIRST=trueexport HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoopexport SPARK_HOME=/opt/cloudera/parcels/CDH/lib/sparkexport LIVY_HOME=/usr/livy/livy-0.5.0-incubating-binexport HIVE_HOME=/opt/cloudera/parcels/CDH/lib/hiveexport YARN_HOME=/opt/cloudera/parcels/CDH/lib/hadoop-yarnexport SCALA_HOME=/usr/scala/scala-2.11.8export PATH=$PATH:$HIVE_HOME/bin:$HADOOP_HOME/bin:$SPARK_HOME/bin:$LIVY_HOME/bin:$SCALA_HOME/bin[root@cdh04 ~]# source .bashrc 2.3.3 Hive配置将hive-site.xml上传到hdfs[root@cdh04 ~]# sudo -u hdfs hadoop fs -mkdir -p /home/spark_conf[root@cdh04 ~]# sudo -u hdfs hadoop fs -put /opt/cloudera/parcels/CDH/lib/hive/conf/hive-site.xml /home/spark_conf[root@cdh04 ~]# useradd griffin[root@cdh04 ~]#sudo -u hdfs hadoop fs -chown -R griffin /home/spark_conf2.3.4 配置 Griffin 的 application.properties进入到下载的源码目录,编辑 service/src/main/resources/application.properties 配置文件[root@cdh04 ~]# cd /usr/griffin/griffin-griffin-0.5.0/[root@cdh04 ~]# vim service/src/main/resources/application.properties
# Apache Griffin应用名称
spring.application.name=griffin_service
# Apache Griffin server port (default 8080)
server.port = 8081# MySQL数据库配置信息
#spring.datasource.url=jdbc:postgresql://localhost:5432/quartz?autoReconnect=true&useSSL=false
spring.datasource.url=jdbc:mysql://cdh01:3306/quartz?autoReconnect=true&useSSL=false
spring.datasource.username=griffin
spring.datasource.password=bigdata
spring.jpa.generate-ddl=true
#spring.datasource.driver-class-name=org.postgresql.Driver
spring.datasource.driver-class-name=com.mysql.jdbc.Driver
spring.jpa.show-sql=true
# Hive metastore]
# 这里配置的值为`hive-site.xml`中的 `hive.metastore.uris`配置项的值
hive.metastore.uris=thrift://cdh03:9083
hive.metastore.dbname=hive
hive.hmshandler.retry.attempts=15
hive.hmshandler.retry.interval=2000ms
# Hive cache time
cache.evict.hive.fixedRate.in.milliseconds=900000
# Kafka schema registry
kafka.schema.registry.url=http://cdh03:8081
# Update job instance state at regular intervals
jobInstance.fixedDelay.in.milliseconds=60000
# Expired time of job instance which is 7 days that is 604800000 milliseconds.Time unit only supports milliseconds
jobInstance.expired.milliseconds=604800000
# schedule predicate job every 5 minutes and repeat 12 times at most
#interval time unit s:second m:minute h:hour d:day,only support these four units
predicate.job.interval=5m
predicate.job.repeat.count=12
# external properties directory location
external.config.location=
# external BATCH or STREAMING env
external.env.location=
# login strategy ("default" or "ldap")
login.strategy=default
# ldap,登录策略为ldap时配置
ldap.url=ldap://cdh04:8099
ldap.email=@example.com
ldap.searchBase=DC=org,DC=example
ldap.searchPattern=(sAMAccountName={0})
# hdfs default name
fs.defaultFS=hdfs://nn01:8020
# elasticsearch,# elasticsearch配置
elasticsearch.host=cdh04
elasticsearch.port=9200
elasticsearch.scheme=http
# elasticsearch.user = user
# elasticsearch.password = password
# livy
livy.uri=http://cdh04:8998/batches
livy.need.queue=false
livy.task.max.concurrent.count=20
livy.task.submit.interval.second=3
livy.task.appId.retry.count=3
# yarn url
yarn.uri=http://cdh04:8088
# griffin event listener
internal.event.listeners=GriffinJobEventHook
# 压缩
#server.compression.enabled=true
#server.compression.mime-types=application/json,application/xml,text/html,text/xml,text/plain,application/javascript,text/css
		2.3.5 配置 Griffin 的 quartz.properties进入到下载的源码目录,编辑 service/src/main/resources/quartz.properties 配置文件。默认亦可。2.3.6 配置 Griffin 的 sparkProperties.json进入到下载的源码目录,编辑 service/src/main/resources/sparkProperties.json 配置文件。先配置上griffin-measure.jar在hdfs上的位置,spark.yarn.dist.files即为1.3.3那里hive-site.xml上传的位置。[root@cdh04 ~]# sudo -u griffin hadoop fs -mkdir -p /griffin[root@cdh04 resources]# cd /usr/griffin/griffin-griffin-0.5.0/service/src/main/resources[root@cdh04 resources]# vim sparkProperties.json
{"file": "hdfs://nn01:8020/griffin/griffin-measure.jar","className": "org.apache.griffin.measure.Application","name": "griffin","queue": "default","numExecutors": 2,"executorCores": 1,"driverMemory": "1g","executorMemory": "1g","conf": {"spark.yarn.dist.files": "hdfs://nn01:8020/home/spark_conf/hive-site.xml"},"files": []
}
	2.3.7 配置 Griffin 的 env_batch.json进入到下载的源码目录,编辑 service/src/main/resources/env/env_batch.json 配置文件。根据自己的需求调整sink信息。配置HDFS的输出路径和Elasticsearch URL。[root@cdh04 resources]# cd env/[root@cdh04 env]# su griffin[griffin@cdh04 env]$ hadoop fs -mkdir -p /griffin/persist[root@cdh04 env]# vim env_batch.json
{"spark": {"log.level": "WARN"},"sinks": [{"type": "CONSOLE","config": {"max.log.lines": 10}},{"type": "HDFS","config": {"path": "hdfs://nn01:8020/griffin/persist","max.persist.lines": 10000,"max.lines.per.file": 10000}},{"type": "ELASTICSEARCH","config": {"method": "post","api": "http://cdh04:9200/griffin/accuracy","connection.timeout": "1m","retry": 10}}],"griffin.checkpoint": []
}
	2.3.8 配置 Griffin 的 env_streaming.json进入到下载的源码目录,编辑 service/src/main/resources/env/env_streaming.json 配置文件。同env_batch.json的修改类似。[root@cdh04 env]# hadoop fs -mkdir -p /griffin/checkpoint[root@cdh04 env]# vim env_streaming.json
{"sinks": [
{"spark": {"log.level": "WARN","checkpoint.dir": "hdfs://nn01:8020/griffin/checkpoint/${JOB_NAME}","init.clear": true,"batch.interval": "1m","process.interval": "5m","config": {"spark.default.parallelism": 4,"spark.task.maxFailures": 5,"spark.streaming.kafkaMaxRatePerPartition": 1000,"spark.streaming.concurrentJobs": 4,"spark.yarn.maxAppAttempts": 5,"spark.yarn.am.attemptFailuresValidityInterval": "1h","spark.yarn.max.executor.failures": 120,"spark.yarn.executor.failuresValidityInterval": "1h","spark.hadoop.fs.hdfs.impl.disable.cache": true}},"sinks": [{"type": "CONSOLE","config": {"max.log.lines": 100}},{"type": "HDFS","config": {"path": "hdfs://nn01:8020/griffin/persist","max.persist.lines": 10000,"max.lines.per.file": 10000}},{"type": "ELASTICSEARCH","config": {"method": "post","api": "http://cdh04:9200/griffin/accuracy"}}],"griffin.checkpoint": [{"type": "zk","config": {"hosts": "cdh01:2181,cdh02:2181,cdh03:2181","namespace": "griffin/infocache","lock.path": "lock","mode": "persist","init.clear": true,"close.clear": false}}]
}
	2.3.9 Elasticsearch设置这里提前在Elasticsearch设置索引,以便将分片数,副本数和其他设置配置为所需的值:
[root@cdh1 env]# curl -k -H "Content-Type: application/json" -X PUT http://cdh04:9200/griffin?pretty \-d '{"aliases": {},"mappings": {"accuracy": {"properties": {"name": {"fields": {"keyword": {"ignore_above": 256,"type": "keyword"}},"type": "text"},"tmst": {"type": "date"}}}},"settings": {"index": {"number_of_replicas": "2","number_of_shards": "5"}}
}'
		创建索引成功返回{"acknowledged":true,"shards_acknowledged":true,"index":"griffin"}2.3.10 驱动包的依赖修改,修改vim service/pom.xml打开113行mysql相关注释
		<dependency><groupId>mysql</groupId><artifactId>mysql-connector-java</artifactId><version>${mysql.java.version}</version></dependency>
		2.3.11 配置 Griffin 的measure的env-batch.json [root@cdh04 resources]# vim /usr/griffin/griffin-griffin-0.5.0/measure/src/main/resources/env-batch.json 
{"spark": {"log.level": "WARN","config": {"spark.master": "cdh03"}},"sinks": [{"type": "CONSOLE","config": {"max.log.lines": 10}},{"type": "HDFS","config": {"path": "hdfs://nn01:8020/griffin/batch/persist","max.persist.lines": 10000,"max.lines.per.file": 10000}},{"type": "ELASTICSEARCH","config": {"method": "post","api": "http://cdh04:9200/griffin/accuracy","connection.timeout": "1m","retry": 10}}],"griffin.checkpoint": []
}
		2.3.12 配置 Griffin 的measure的env-batch.json [griffin@cdh04 resources]$ hadoop fs -mkdir -p /test/griffin/cp[griffin@cdh04 resources]$ hadoop fs -mkdir -p /griffin/streaming/dump/source[griffin@cdh04 resources]$ hadoop fs -mkdir -p /griffin/streaming/persist[root@cdh04 resources]#  vim /usr/griffin/griffin-griffin-0.5.0/measure/src/main/resources/env-streaming.json
{"spark": {"log.level": "WARN","checkpoint.dir": "hdfs://nn01:8020/test/griffin/cp","batch.interval": "2s","process.interval": "10s","init.clear": true,"config": {"spark.master": "cdh03","spark.task.maxFailures": 5,"spark.streaming.kafkaMaxRatePerPartition": 1000,"spark.streaming.concurrentJobs": 4,"spark.yarn.maxAppAttempts": 5,"spark.yarn.am.attemptFailuresValidityInterval": "1h","spark.yarn.max.executor.failures": 120,"spark.yarn.executor.failuresValidityInterval": "1h","spark.hadoop.fs.hdfs.impl.disable.cache": true}},"sinks": [{"type": "CONSOLE","config": {"max.log.lines": 100}},{"type": "HDFS","config": {"path": "hdfs://nn01:8020/griffin/streaming/persist","max.persist.lines": 10000,"max.lines.per.file": 10000}},{"type": "ELASTICSEARCH","config": {"method": "post","api": "http://cdh04:9200/griffin/accuracy"}}],"griffin.checkpoint": [{"type": "zk","config": {"hosts": "cdh01:2181,cdh02:2181,cdh03:2181","namespace": "griffin/infocache","lock.path": "lock","mode": "persist","init.clear": true,"close.clear": false}}]
}
	2.3.12 配置 Griffin 的measure的env-batch.json [root@cdh04 resources]# vim /usr/griffin/griffin-griffin-0.5.0/measure/src/main/resources/config-streaming.json
{"name": "prof_streaming","process.type": "streaming","data.sources": [{"name": "source","baseline": true,"connectors": [{"type": "kafka","version": "0.8","dataframe.name" : "kafka","config": {"kafka.config": {"bootstrap.servers": "cdh04:9092","group.id": "group1","auto.offset.reset": "smallest","auto.commit.enable": "false"},"topics": "sss","key.type": "java.lang.String","value.type": "java.lang.String"},"pre.proc": [{"dsl.type": "df-ops","in.dataframe.name": "kafka","out.dataframe.name": "out1","rule": "from_json"},{"dsl.type": "spark-sql","in.dataframe.name":"out1","out.datafrmae.name": "out3","rule": "select name, age from out1"}]}],"checkpoint": {"file.path": "hdfs://nn01:8020/griffin/streaming/dump/source","info.path": "source","ready.time.interval": "10s","ready.time.delay": "0","time.range": ["0", "0"]}}],"evaluate.rule": {"rules": [{"dsl.type": "griffin-dsl","dq.type": "profiling","out.dataframe.name": "prof","rule": "select count(name) as `cnt`, max(age) as `max`, min(age) as `min` from source","out":[{"type": "metric","name": "prof"}]},{"dsl.type": "griffin-dsl","dq.type": "profiling","out.dataframe.name": "grp","rule": "select name, count(*) as `cnt` from source group by name","out":[{"type": "metric","name": "name_group","flatten": "array"}]}]},"sinks": ["ELASTICSEARCH"]
}

2.4 MVN编译

	[root@cdh04 ~]$ cd usr/griffin/griffin-griffin-0.5.0/measure[root@cdh04 measure]$ mvn -Dmaven.test.skip=true clean install[root@cdh04 service]$ cd /usr/griffin/griffin-griffin-0.5.0/service/[root@cdh04 service]$ mvn -Dmaven.test.skip=true clean install配置Griffin环境,添加如下配置,保存并推出。[root@cdh04 ~]# vim ~/.bash_profile#追加#Griffin配置export GRIFFIN_HOME=/usr/griffin/griffin-griffin-0.5.0export PATH=$PATH:$GRIFFIN_HOME/bin[root@cdh04 ~]# source ~/.bash_profile		

三、安装

			3.1编译好的文件放置到目录下使用如下命令将measure-0.5.0.jar这个jar上传到HDFS的/griffin文件目录里:#改变jar名称[root@cdh04 ~]# mv /usr/griffin/griffin-griffin-0.5.0/measure/target/measure-0.5.0.jar /usr/griffin/griffin-griffin-0.5.0/griffin-measure.jar#上传griffin-measure.jar到HDFS文件目录里[root@cdh04 ~]# sudo -u hdfs hadoop fs -put /usr/griffin/griffin-griffin-0.5.0/griffin-measure.jar /griffin/这样做的目的主要是因为spark在yarn集群上执行任务时,需要到HDFS的/griffin目录下加载griffin-measure.jar,避免发生类org.apache.griffin.measure.Application找不到的错误。授权:sudo -u hdfs hadoop fs -chown -R griffin /griffin/[root@cdh04 ~]# mv /usr/griffin/griffin-griffin-0.5.0/service/target/service-0.5.0.jar /usr/griffin/griffin-griffin-0.5.0/griffin-service.jar3.2启动service.jar,运行Griffin管理服务# 启动之前请确保Hive的 metastore 服务正常开启nohup java -jar $GRIFFIN_HOME/griffin-service.jar>$GRIFFIN_HOME/service.out 2>&1 &启动之后我们可以查看启动日志,如果日志中没有错误,则启动成功,tail -f $GRIFFIN_HOME/service.out

四、编译UI

		4.1 UI模块的配置,修改environment.ts文件位置:griffin-griffin-0.5.0\ui\angular\src\environments\environment.ts
export const environment = {production: false,BACKEND_SERVER: 'http://cdh04:8080',
};
		4.2 启动前端先把ui模块进行编译,编译之后去到node_modules目录下中的./bin目录 执行如下命令:[root@cdh04 ~]# cd /usr/griffin/griffin-griffin-0.5.0/ui/angular/[root@cdh04 ~]# node_modules/.bin/ng serve -host cdh04 -port 8081这里的端口不能是8080,因为8080已经被service模块占用了 访问 Service Platform WEB 页面,查看前端展示页面几秒钟之后,我们可以访问Apache Griffin的 UI http://cdh04:8081,其端口号为UI编译后的server.port值。http://cdh04:8081/#/health默认没有密码,是的一定没有密码,首页如下:

在这里插入图片描述

五、demo测试

	5.1获取demo数据[root@cdh04 ~]# mkdir -p /usr/griffin/griffin-griffin-0.5.0/data[root@cdh04 ~]# cd $GRIFFIN_HOME/datawget http://griffin.apache.org/data/batch/gen_demo_data.shwget http://griffin.apache.org/data/batch/gen_delta_src.shwget http://griffin.apache.org/data/batch/demo_basicwget http://griffin.apache.org/data/batch/delta_srcwget http://griffin.apache.org/data/batch/delta_tgtwget http://griffin.apache.org/data/batch/insert-data.hql.templatewget http://griffin.apache.org/data/batch/create-table.hql[root@cdh04 data]# chmod 755 *.sh[root@cdh04 data]# ./gen_demo_data.sh查看生成的数据如下:[root@cdh04 data]# head -3 delta_src124|1816|1816124|1583|1583124|1494|1494[root@cdh04 data]# head -3 demo_src0|1|10|2|20|3|3[root@cdh04 data]# head -3 demo_tgt0|1|10|2|20|3|35.2创建 gen-hive-data.sh在$GRIFFIN_HOME/data下创建如Hive数据生成的脚本[root@cdh04 data]# vim gen-hive-data.sh
#!/bin/bash#create table。因为前面已经手动创建,这里注释,不用再次创建了
hive -f create-table.hql
echo "create table done"#current hour
sudo ./gen_demo_data.sh
cur_date=`date +%Y%m%d%H`
dt=${cur_date:0:8}
hour=${cur_date:8:2}
partition_date="dt='$dt',hour='$hour'"
sed s/PARTITION_DATE/$partition_date/ ./insert-data.hql.template > insert-data.hql
hive -f insert-data.hql
src_done_path=/griffin/data/batch/demo_src/dt=${dt}/hour=${hour}/_DONE
tgt_done_path=/griffin/data/batch/demo_tgt/dt=${dt}/hour=${hour}/_DONE
hadoop fs -mkdir -p /griffin/data/batch/demo_src/dt=${dt}/hour=${hour}
hadoop fs -mkdir -p /griffin/data/batch/demo_tgt/dt=${dt}/hour=${hour}
hadoop fs -touchz ${src_done_path}
hadoop fs -touchz ${tgt_done_path}
echo "insert data [$partition_date] done"#last hour
sudo ./gen_demo_data.sh
cur_date=`date -d '1 hour ago' +%Y%m%d%H`
dt=${cur_date:0:8}
hour=${cur_date:8:2}
partition_date="dt='$dt',hour='$hour'"
sed s/PARTITION_DATE/$partition_date/ ./insert-data.hql.template > insert-data.hql
hive -f insert-data.hql
src_done_path=/griffin/data/batch/demo_src/dt=${dt}/hour=${hour}/_DONE
tgt_done_path=/griffin/data/batch/demo_tgt/dt=${dt}/hour=${hour}/_DONE
hadoop fs -mkdir -p /griffin/data/batch/demo_src/dt=${dt}/hour=${hour}
hadoop fs -mkdir -p /griffin/data/batch/demo_tgt/dt=${dt}/hour=${hour}
hadoop fs -touchz ${src_done_path}
hadoop fs -touchz ${tgt_done_path}
echo "insert data [$partition_date] done"#next hours
set +e
while true
dosudo ./gen_demo_data.shcur_date=`date +%Y%m%d%H`next_date=`date -d "+1hour" '+%Y%m%d%H'`dt=${next_date:0:8}hour=${next_date:8:2}partition_date="dt='$dt',hour='$hour'"sed s/PARTITION_DATE/$partition_date/ ./insert-data.hql.template > insert-data.hqlhive -f insert-data.hqlsrc_done_path=/griffin/data/batch/demo_src/dt=${dt}/hour=${hour}/_DONEtgt_done_path=/griffin/data/batch/demo_tgt/dt=${dt}/hour=${hour}/_DONEhadoop fs -mkdir -p /griffin/data/batch/demo_src/dt=${dt}/hour=${hour}hadoop fs -mkdir -p /griffin/data/batch/demo_tgt/dt=${dt}/hour=${hour}hadoop fs -touchz ${src_done_path}hadoop fs -touchz ${tgt_done_path}echo "insert data [$partition_date] done"sleep 3600
done
set -e
	*************************************************************************************注意: 如果演示使用的库不是defalut,需要修改insert-data.hql.template脚本如下。例如使用griffin_demo库时修改为如下LOAD DATA LOCAL INPATH '/usr/griffin/griffin-griffin-0.5.0/data/demo_src' OVERWRITE INTO TABLE griffin_demo.demo_src PARTITION (PARTITION_DATE);LOAD DATA LOCAL INPATH '/usr/griffin/griffin-griffin-0.5.0/data/demo_tgt' OVERWRITE INTO TABLE griffin_demo.demo_tgt PARTITION (PARTITION_DATE);*************************************************************************************5.3 执行脚本加载数据chmod +x gen-hive-data.sh./gen-hive-data.sh加载完成后,往hive表中 griffin_demo.demo_src表和 griffin_demo.demo_tgt 会分别插入375000条数据。5.4 查看数据hive> select * from demo_src limit 3;OK0	1	1	20201114	200	2	2	20201114	200	3	3	20201114	20Time taken: 0.156 seconds, Fetched: 3 row(s)hive> select * from demo_tgt limit 3;OK0	1	1	20201114	200	2	2	20201114	200	3	3	20201114	20Time taken: 0.161 seconds, Fetched: 3 row(s)5.5	使用,测试登陆系统,访问Apache Griffin的 UI http://cdh04:80815.5.1数据资产您可以通过单击右上角的“DataAssets”来检查数据资产。

在这里插入图片描述

	5.5.2 创建 measure 单击头部的“Measures”,然后选择“Create Measure”。可以使用该measure来处理数据并获得所需的结果。

在这里插入图片描述


创建Measures时候分以下四个数据质量模型 1.Accuracy 精确度 ,指对比两个数据集source/target,指定对比规则如大于,小于,等于,指定对比的区间。最后通过job调起的spark计算得到结果集。 2.Data Profiling 数据分析,定义一个源数据集,求得n个字段的最大,最小,count值等等 3. Publish 发布,用户如果通过配置文件而不是界面方式创建了Measure,并且spark运行了该质量模型,结果集会写入到 ES中,通过publish 定义一个同名的Mesaure,就会在界面的仪表盘中显示结果集。 4. json/yaml Mesaure用户自定义的Measure,配置文件也可以通过这个位置定义


	 选择我们将用于比较的数据源与字段。选择demo-src

在这里插入图片描述
选择我们将用于比较的数据源与字段。选择demo-tgt
在这里插入图片描述
Mapping source and target (映射source和target)
“Map To”: 选择source和target匹配的规则。共以下6中选项:
在这里插入图片描述
为源数据集和目标数据集设置分区配置。分区大小表示hive数据库最小数据单元,用于分割要计算的数据。条件填写dt=#YYYYMMdd# AND hour=#HH#,Done file 表示done file分区路径的格式。
在这里插入图片描述
= : 两列的数据应完全匹配。
!= : 两列的数据应该不同。

: 目标列数据应大于源列数据。
= : 目标列数据应大于或等于源数据。
<: 目标列数据应小于源列数据。
<=: 目标列数据应小于或等于源列数据。
“Source fields”: 选择要与目标列进行比较的源列。

	5.5.3 创建 Job 通过点击 “Jobs”,然后选择 “Create Job”。我们可以定期提交作业以执行测量。 这里没4小时定时执行一次。现在仅支持简单的定期调度工作进行测量。

在这里插入图片描述
在这里插入图片描述
说明:

Job Name: 设置Job的名字
Measure Name: 要执行的measure的名称,这个是从前面创建的Measure的名字中选择。
Cron Expression: cron 表达式。 For example: 0 0/4 * * * ?
Begin: 数据段开始时间与触发时间的比较
End: 数据段结束时间与触发时间比较。
提交作业后,Apache Griffin将在后台安排作业,计算完成后,您可以监视仪表板以在UI上查看结果。
5.5.4 Metrics 仪表板
点击头部的Health会显示指标数据的热图。
点击右侧的DQ Metrics可以看到指标图标。单击图标可以放大。

总结

1.Griffin 系统主要分为:数据收集处理层(Data Collection&Processing Layer)、后端服务层(Backend Service Layer)和用户界面(User Interface)
2.参考网址
Apache Griffin 数据质量监控工具
官网:http://griffin.apache.org/docs/quickstart-cn.html
官网:github: https://github.com/apache/griffin
参考:https://cwiki.apache.org/confluence/display/GRIFFIN/1.+Overview
测试流数据:http://griffin.apache.org/data/streaming/
测试批数据:http://griffin.apache.org/data/streaming/

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 适用于Webstorm的25个最佳Javascript插件

    自从Web上JavaScript主要用于使Netscape浏览器咳嗽的弹出窗口和动画以来&#xff0c;已经过去了很长时间。 如今&#xff0c;JavaScript是开发网站和基于Web的应用程序时最流行的语言&#xff0c;它将在2020年及以后继续统治Web堆栈。 如果您是使用JetBrains IDE&#xff08;W…...

    2024/4/20 14:55:43
  2. 15 款最好的 Bootstrap 编辑器或者是在线编辑工具。

    以下是 15 款最好的 Bootstrap 编辑器或者是在线编辑工具。 1. Bootstrap Magic 这是一个 Bootstrap 主题生成器&#xff0c;使用最新的 Bootstrap 3 版本和 Angular JS 版本&#xff0c;提供一个鲜活的用户修改预览。它包括了各种各样的导入&#xff0c;一个颜色选择器和智能…...

    2024/4/20 14:55:46
  3. 安装PostgreSQL、KONG和KONGA

    提示&#xff1a;Redhat 的yum命令需要先注册收费才能使用&#xff0c; 使用CentOS。进入CentOS官方网站 http://www-centos-org&#xff0c;下载。 DVD ISO&#xff1a;此镜像类型为普通光盘安装版&#xff0c;可离线安装到计算机硬盘上&#xff0c;包含大量的常用软件&…...

    2024/4/20 14:55:45
  4. 济南双眼皮群

    ...

    2024/4/21 15:31:07
  5. ReactNative进阶(十二):本地存储-AsyncStorage及Realm使用

    文章目录一、前言二、AsyncStorage三、Realm3.1 Realm 常用操作四、拓展阅读一、前言 数据持久化一直都是软件开发中重要的一个环节&#xff0c;几乎所有的应用都具备这项功能&#xff1b;什么是数据持久化呢&#xff1f;—— 说白了就是数据的本地化存储&#xff0c;将数据存…...

    2024/4/21 15:31:07
  6. 埋线能济南2015济南双眼皮贴吧

    ...

    2024/4/21 15:31:05
  7. 北京美莱双眼皮修复对比图

    ...

    2024/4/21 15:31:05
  8. 割完双眼皮眼睛吊着的

    ...

    2024/4/21 15:31:04
  9. 第三章 MVC模式\项目和约定

    在深入探究ASP.NET Core MVC的细节之前, 应当熟悉MVC设计模式及其思想, 以及它如何转化成ASP.NET Core MVC项目. 你可能已经了解了我在前面提到的一些观点和约定, 特别是在进行过高级ASP.NET开发的情况下. 如果没有的话, 建议详细阅读这一章, 对MVC原理的较好理解可以帮助你掌握…...

    2024/4/21 15:31:02
  10. 选用Vue做MVC架构模式

    关键词 并行开发 代码复用 关注点分离 目录 经典的MVC架构模式背景选择Vue经典MVC回顾MVVM架构模式front MVC架构定义并行开发模式结论经典的MVC架构模式 MVC架构模式是经典设计模式中的经典&#xff0c;是一种编程的方法论。具有高度抽象的特征&#xff0c;经典MVC用简单的定义…...

    2024/5/3 5:15:02
  11. 哈尔滨超龙做双眼皮哪位医生好

    ...

    2024/4/21 15:31:01
  12. 重庆割双眼皮认可华美

    ...

    2024/4/21 15:30:59
  13. 艺星压双眼皮价格

    ...

    2024/4/25 15:35:40
  14. 太原双眼皮恢复图

    ...

    2024/4/20 14:55:57
  15. 许晴割双眼皮了吗

    ...

    2024/4/20 14:55:55
  16. 埋线双眼皮后眼睛睁不大

    ...

    2024/4/20 14:55:54
  17. 双眼皮埋线胶原蛋白线

    ...

    2024/4/20 14:55:53
  18. 合肥做双眼皮不错艺星

    ...

    2024/4/20 14:55:53
  19. 微创双眼皮眼睑

    ...

    2024/4/29 0:32:35
  20. 双眼皮术后眼角有疤痕

    ...

    2024/4/20 14:55:50

最新文章

  1. 论文辅助笔记:Tempo 之 model.py

    0 导入库 import math from dataclasses import dataclass, asdictimport torch import torch.nn as nnfrom src.modules.transformer import Block from src.modules.prompt import Prompt from src.modules.utils import (FlattenHead,PoolingHead,RevIN, )1TEMPOConfig 1.…...

    2024/5/4 12:04:38
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. sql注入-MySQL

    01. 常用符号、函数、语句 1.1. 常用符号 1.1.1. 注释符 注释符说明#(%23)单行注释 在URL中#表示锚点,也就是hash路由,带上#不会请求后端路由,而是刷新前端路由,所以测试一般用URL编码后的%23– – - -+单行注释 注意–后还有一个空格;其中+号会被URL解码为空格/**/多行…...

    2024/5/4 0:02:14
  4. linuxday05

    1、makedile原理&#xff08;增量编译生成代码&#xff09; # &#xff08;注释符&#xff09; 目标------依赖 目标不存在//目标比依赖旧才会执行命令&#xff1b; makefile的实现 1、命名要求&#xff08;Makefile/makefile&#xff09; 2、规则的集合 目标文件&#…...

    2024/5/4 6:30:26
  5. 贪心算法|376.摆动序列

    力扣题目链接 class Solution { public:int wiggleMaxLength(vector<int>& nums) {if (nums.size() < 1) return nums.size();int curDiff 0;int preDiff 0;int result 1;for (int i 0; i < nums.size() - 1; i) {curDiff nums[i 1] - nums[i];if ((pre…...

    2024/5/3 1:30:00
  6. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/1 17:30:59
  7. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/5/2 16:16:39
  8. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/4/29 2:29:43
  9. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/5/3 23:10:03
  10. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/4/27 17:58:04
  11. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/4/27 14:22:49
  12. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/4/28 1:28:33
  13. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/4/30 9:43:09
  14. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/4/27 17:59:30
  15. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/5/2 15:04:34
  16. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/4/28 1:34:08
  17. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/4/26 19:03:37
  18. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/4/29 20:46:55
  19. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/4/30 22:21:04
  20. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/1 4:32:01
  21. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/5/4 2:59:34
  22. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/4/28 5:48:52
  23. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/4/30 9:42:22
  24. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/5/2 9:07:46
  25. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/4/30 9:42:49
  26. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  27. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  28. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  29. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  30. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  31. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  32. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  33. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  34. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  35. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  36. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  37. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  38. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  39. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  40. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  41. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  42. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  43. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  44. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  45. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57