大数据环境搭建及基本使用
目录
大数据环境搭建及基本使用
环境搭建:Ubuntu18.04三台虚拟机大数据
1.Hadoop hdfs使用
2.Hadoop mapreduce使用
3.Hive使用
4.Hbase使用
5.Kafka使用
大数据环境搭建及基本使用
环境搭建:Ubuntu18.04三台虚拟机大数据
记录一下自己搭建三台虚拟机的过程
环境总体概述
主节点 | IP地址 | 软件 | 进程 |
master | 192.168.190.130 | MySQL 5.7.29 | namenode(hadoop) |
JDK 1.8.0_241 | resourcemanager(yarn) | ||
Hadoop 2.10.1 | QuorumPeerMain(zookeeper) | ||
Zookeeper 3.5.7 | HMaster,HRegionServer(hbase) | ||
Hbase 2.2.4 | Master(spark) | ||
Spark 2.4.5 | |||
Hive 2.3.7 | |||
Sqoop 1.4.7 | |||
Kafka 2.1.0 2.11 | |||
slave1 | 192.168.190.131 | JDK 1.8.0_241 | datanode(hadoop) |
Hadoop 2.10.1 | nodemanager(yarn) | ||
Zookeeper 3.5.7 | QuorumPeerMain(zookeeper) | ||
Hbase 2.2.4 | HRegionServer(hbase) | ||
Spark 2.4.5 | Worker(spark) | ||
slave2 | 192.168.190.132 | JDK 1.8.0_241 | datanode、secondarynamenode(hadoop) |
Hadoop 2.10.1 | nodemanager(yarn) | ||
Zookeeper 3.5.7 | QuorumPeerMain(zookeeper) | ||
Hbase 2.2.4 | HRegionServer(hbase) | ||
Spark 2.4.5 | Worker(spark) |
虚拟机配置
- 首先配置主节点master虚拟机
- 下载vmware(略)
- 下载ubuntu镜像(略)
- Vmware启动ubutu18.04镜像
配置:存储为单个文件、内存4G、cpu2*2、硬盘50G、网络自定义NAT模式vmnet8(根基自己电脑配置酌情,比如我的电脑16G内存,分给master 4G,slave1和slave2分别2G)配置截图如下图
- 网络配置
- 编辑-虚拟网络编辑器-更改设置-选择vmnet8,将子网IP设成三台机器所在网段
- 选择NAT设置-修改网关
- 选择DHCP设置-修改
- 开启虚拟机,进入终端(ctrl+alt+t)
- 设置静态IP地址:(此处为ubuntu18.04中,ubuntu16.04不适用)
vim /etc/netplan/01-network-manager-all.yaml(文件名有可能不是这个,去你自己机器找) |
network: # dxy add ethernets: ens33: # 网卡名根据自己电脑来。ifconfig查看自己的网卡名。没有命令使用sudo apt install net-tools安装一下 addresses: - 192.168.190.130/24 # 静态地址 gateway4: 192.168.190.2 #网关 nameservers: addresses: - 8.8.8.8 search: [] optional: true #dxy add end version: 2 renderer: NetworkManager |
使得配置生效
sudo netplan apply |
查看是否修改成功
ifconfig |
配置集群中其他机器地址及域名:
sudo vim /etc/hosts
127.0.0.1 localhost 127.0.1.1 localhost.localdomain localhost 192.168.190.130 master 192.168.190.131 slave1 192.168.190.132 slave2 |
配置本机名
vim /etc/hostname
master |
重启
- 在Linux上安装Hadoop之前,需要安装两个程序:
1)JDK 1.8。Hadoop是Java编写的程序,Hadoop的编译及MapReduce都需要使用JDK。因此,在安装Hadoop前,必须安装JDK。
2)SSH(安装外壳协议),推荐安装OpenSSH.Hadoop需要通过SSH来启动Slave列表中各台机器的守护进程,因此SSH也是必须安装的,即使是安装伪分布版本(因为Hadoop并没有区分集群式和伪分布式)。对于伪分布式,Hadoop会采用与集群相同处理方式,即按次序启动文件conf/slaves中记载的主机上的进程,只不过在伪分布式中Slave为localhost(即本身),所以对于伪分布式Hadoop,SSH也是一样必须的。
- 关闭防火墙
查看防火墙状态
sudo ufw status |
未安装ufw的话
sudo apt-get install ufw |
返回:stats:inactive表示已经关闭
若未关闭,关闭防火墙
sudo ufw disable |
- Jdk安装
目前在官网下载jdk1.8的jdk和mysql包的时候需要登陆,借用别人账号
账号: 13707259624@163.com 密码:Java123456 |
解压压缩包
tar -zxvf jdk-8u144-linux-x64.tar.gz -C /home/hadoop/bigdata/ |
设置软连接
ln -s jdk-xxxx jdk |
配置环境变量
vim ~/.bashrc
export JAVA_HOME=/home/hadoop/bigdata/jdk export PATH=$JAVA_HOME/bin:$PATH |
使得环境变量生效
source ~/.bashrc |
查看是否成功
Java -version |
- ssh安装
sudo apt-get install openssh-server |
- 到这里基本配置完成,克隆出两个虚拟机,命名为slave1、slave2
设置开机后设置静态IP地址:
vim /etc/netplan/01-network-manager-all.yaml slave1为192.168.190.131/24 slave2为192.168.190.131/24 |
生效
sudo netplan apply |
配置本机名
vim /etc/hostname slave1 # 在slave1虚拟机中添加
slave2 #在slave2虚拟机中添加 |
重启
此时三者应该可以互相ping通
在master下尝试 ping slave1、ping slave2
在slave1下尝试 ping master、ping slave2
在slave2下尝试 ping master、ping slave1
如有ping不通查看防火墙是否关闭,配置文件是否没修改好
- 使得三者能ssh通讯
在三台机器上分别使用命令
ssh localhost |
输入密码登录后
exit |
这样三台机器上都增加了~/.ssh文件
cd ~/.ssh |
在三台机器上分别执行下句生成本机公钥
ssh-keygen -t rsa -P ‘’ |
ls可以看到id_rsa和id_rsa.pub
在三台机器上分别执行,将公钥添加到认证公钥文件中
cat id_rsa.pub >> authorized_keys |
使得master可以ssh免密登录slave1,slave2
在master机器上,复制了一份自己公钥命名为tmp
cp authorized_keys tmp |
在master机器上将自己的公钥发送给slave1、slave2
scp tmp hadoop@slave1:/home/hadoop/.ssh/ scp tmp hadoop@slave2:/home/hadoop/.ssh/ |
在slave1,slave2将master公钥添加进其中
cat tmp >> authorized_keys |
验证
在master是否可以免密远程登录
ssh slave1 ssh slave2 |
Hadoop安装
先在master节点安装hadoop,然后发给slave1、slave2
下载jdk 和 hadoop 解压放到 ~/bigdata目录下
tar -zxvf hadoop-xxx.tar.gz -C ~/bigdata/ |
创建软连接
ln -s hadoop-xxx hadoop |
配置环境变量
vim ~/.bashrc export HADOOP_HOME=/home/hadoop/bigdata/hadoop export PATH=$HADOOP_HOME/bin:$PATH #保存退出后 source ~/.bash_profile |
进入到解压后的hadoop目录 修改配置文件
配置文件作用
- core-site.xml 指定hdfs的访问方式
- hdfs-site.xml 指定namenode 和 datanode 的数据存储位置
- mapred-site.xml 配置mapreduce
- yarn-site.xml 配置yarn
修改hadoop-env.sh
cd etc/hadoop vim hadoop-env.sh #找到下面内容添加java home export_JAVA_HOME=/home/hadoop/bigdata/jdk |
修改 core-site.xml 在 <configuration>节点中添加
<configuration> <!-- 指定Hadoop运行时产生文件的存储目录 --> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/bigdata/hadoop/data/tmp</value> <description>Abase for other temporary directories.</description> </property> <!-- 指定HDFS中NameNode的地址 --> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> </configuration> |
修改hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>2</value> </property> <!-- 指定Hadoop辅助名称节点主机配置 --> <property> <name>dfs.namenode.secondary.http-address</name> <value>slave2:50090</value> </property> </configuration> |
修改 mapred-site.xml
默认没有这个从模板文件复制
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> |
修改yarn-site.xml
<configuration> <!-- Site specific YARN configuration properties --> <!-- Reducer获取数据的方式 --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property>
<!-- 指定YARN的ResourceManager的地址 --> <property> <name>yarn.resourcemanager.hostname</name> <value>master</value> </property> </configuration> |
指定datanode节点
slave1 slave2 |
查看hadoop是否安装成功
hadoop version |
发送给slave1,slave2
scp -r /home/hadoop/bigdata/hadoop-xxx hadoop@slave1:/home/hadoop/bigdata/ scp -r /home/hadoop/bigdata/hadoop-xxx hadoop@slave2:/home/hadoop/bigdata/ |
在slave1,slave2分别创建软连接
ln -s hadoop-xxx hadoop |
来到hadoop的bin目录,格式化namenode
hdfs namenode -format |
启动hadoop
来到hadoop的sbin目录
start-all.sh |
查看进程
Slave1
Slave2
Zookeeper安装
先在master安装,再发送到slave1,slave2
下载Zookeeper的安装包并解压
tar -zxvf zookeeper-3.5.7-bin.tar.gz -C ~/bigdata/ |
创建软连接
ln -s zookeeper-xxx zookeeper |
配置环境变量
# zookeeper export ZOOKEEPER_HOME=/home/hadoop/bigdata/zookeeper export PATH=$ZOOKEEPER_HOME/bin:$PATH |
进入到conf目录下
# 心跳间隔 tickTime=2000 # 初始容忍心跳数 initLimit=10 # 等待最大容忍心跳数 syncLimit=5 # 本地保存数据的目录 dataDir=/home/hadoop/bigdata/zookeeper/zookeeperdir/zookeeper-data # 日志存放位置 dataLogDir=/home/hadoop/bigdata/zookeeper/zookeeperdir/logs # 客户端默认端口 clientPort=2181
# dxy add 2888端口号是zookeeper服务之间通信的端口(心跳端口),而3888是zookeeper与其他应用程序通信的端口(数据端口) server.1=master:2888:3888 server.2=slave1:2888:3888 server.3=slave2:2888:3888 |
创建目录
mkdir -p /home/hadoop/bigdata/zookeeper/zookeeperdir/logs mkdir -p /home/hadoop/bigdata/zookeeper/zookeeperdir/zookeeper-data |
到zookeeper-data目录下 新建 myid 文件
vim myid |
添加1
发送给slave1,slave2
scp -r /home/hadoop/bigdata/zookeeper-xxx hadoop@slave1:/home/hadoop/bigdata/ scp -r /home/hadoop/bigdata/zookeeper-xxx hadoop@slave2:/home/hadoop/bigdata/ |
|
在slave1,slave2分别创建软连接
ln -s zookeeper-xxx zookeeper |
在slave1,slave2修改myid
vim myid # slave1为2 vim myid # slave2 为 3 |
在master、slave1、slave2分别启动(若只启动master ./zkServer.sh status会报错 )
启动Zookeeper、查看状态、关闭
./zkServer.sh start ./zkServer.sh status ./zkServer.sh stop |
编写启动脚本可参考下面链接。后面会配置大数据集群脚本,这步可以先不做。
https://www.cnblogs.com/biehongli/p/7650570.html
Hbase安装
Hbase 安装前需要安装好 JDK 和 Hadoop和Zookeeper。配置好环境变量。
先在master安装然后配置,再发送给slave1,slave2
下载Hbase的安装包并解压
tar -zxvf hbase-2.2.4.tar.gz -C ~/bigdata/ |
环境变量配置
vim ~/.bashrc export HBASE_HOME=/root/bigdata/hbase export PATH=$HBASE_HOME/bin:$PATH source ~/.bashrc |
配置hbase-env.sh
export JAVA_HOME=/root/bigdata/jdk export HBASE_MANAGES_ZK=false --如果你是使用hbase自带的zk就是true,如果使用自己的zk就是false |
配置hbase-site.xml
<configuration> //本台机器hbase存储目录 <property> <name>hbase.rootdir</name> <value>hdfs://master:9000/hbase</value> </property> //hbase的master位置 <property> <name>hbase.master</name> <value>master:60000</value> </property> //hbase的运行模式,true代表分布式,false为单机模式 <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> //zookeeper监控目录 <property> <name>hbase.zookeeper.quorum</name> <value>master,slave1,slave2</value> </property> <property> <name>hbase.tmp.dir</name> <value>/home/hadoop/bigdata/hbase/data</value> <description>Temporary directory on the local filesystem.</description> </property> //Here you have to set the path where you want HBase to store its built in zookeeper files. <property> <name>hbase.zookeeper.property.dataDir</name> <value>/home/hadoop/bigdata/zookeeper/zookeeperdir/zookeeper-data</value> </property> <property> <name>hbase.unsafe.stream.capability.enforce</name> <value>false</value> </property> </configuration> |
配置regionservers
master slave1 slave2 |
发送给slave1,slave2
scp -r /home/hadoop/bigdata/hbase-xxx hadoop@slave1:/home/hadoop/bigdata/ scp -r /home/hadoop/bigdata/hbase-xxx hadoop@slave2:/home/hadoop/bigdata/ |
在slave1,slave2分别创建软连接
ln -s hbase-xxx hbase |
启动hbase(启动的hbase的时候要保证hadoop集群已经启动)
/hbase/bin/start-hbase.sh hbase shell |
Spark安装
先在master安装,再发送到slave1,slave2
下载spark的安装包并解压
tar -zxvf spark-xxxx.tar.gz -C ~/bigdata/ |
创建软连接
ln -s spark-xxx spark |
环境变量配置
vim ~/.bashrc export SPARK_HOME=/root/bigdata/spark export PATH=$SPARK_HOME /bin:$PATH source ~/.bashrc |
修改spark-env.sh
cp spark-env.sh.template
export HADOOP_HOME=/home/hadoop/bigdata/hadoop export YARN_HOME=/home/hadoop/bigdata/hadoop export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export YARN_CONF_DIR=$YARN_HOME/etc/hadoop export SPARK_HOME=/home/hadoop/bigdata/spark export JAVA_HOME=/opt/java/jdk1.8.0_241 # 配置master的地址 export SPARK_MASTER_IP=192.168.190.130 export SPARK_LIBRARY_PATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$HADOOP_HOME/lib/native SPARK_LOCAL_DIRS=/home/hadoop/bigdata/spark/tmp SPARK_DRIVER_MEMORY=2G |
集群配置,修改slaves
cp slaves.template slaves
# A Spark Worker will be started on each of the machines listed below. slave1 slave2 |
发送给slave1,slave2
scp -r /home/hadoop/bigdata/spark-xxx hadoop@slave1:/home/hadoop/bigdata/ scp -r /home/hadoop/bigdata/spark-xxx hadoop@slave2:/home/hadoop/bigdata/ |
在slave1,slave2分别创建软连接
ln -s spark-xxx hbase |
编写集群一键启动脚本
此时集群hadoop+zookeeper+hbase+spark集群基本搭建完毕。
想要启动集群首先要在master上启动hdfs和yarn。在master、slave1、slave2上启动zookeeper、在master上启动hbase、在master上启动hbase。每次启动是很麻烦的一件事,所以我们编写一个一键启动脚本。
在master机器上,编写集群启动脚本
mkdir ~/script vim start.sh |
# hadoop集群启动 /home/hadoop/bigdata/hadoop/sbin/start-yarn.sh /home/hadoop/bigdata/hadoop/sbin/start-dfs.sh # zookeeper集群启动 /home/hadoop/bigdata/zookeeper/bin/zkServer.sh start for i in 1 2 do ssh slave$i "source ~/.bashrc;/home/hadoop/bigdata/zookeeper/bin/zkServer.sh start" done # hbase集群启动 start-hbase.sh # spark集群启动 /home/hadoop/bigdata/spark/sbin/start-all.sh |
编写集群关闭脚本
vim stop.sh |
# spark集群关闭 /home/hadoop/bigdata/spark/sbin/stop-all.sh # hbase集群关闭 stop-hbase.sh # zookeeper集群关闭 /home/hadoop/bigdata/zookeeper/bin/zkServer.sh stop for i in 1 2 do ssh slave$i "/home/hadoop/bigdata/zookeeper/bin/zkServer.sh stop" done # hadoop集群关闭 /home/hadoop/bigdata/hadoop/sbin/stop-dfs.sh /home/hadoop/bigdata/hadoop/sbin/stop-yarn.sh |
为了在任何位置上都可以使用集群启动关闭脚本,将脚本所在路径配置到环境变量
vim ~/.bashrc
#自动化脚本的目录 export SCRIPT=/home/hadoop/script export PATH=$SCRIPT:$PATH
source ~/.bashrc |
尝试使用该命令
start.sh stop.sh |
Hive安装
Hive 安装前需要安装好 JDK 和 Hadoop。配置好环境变量。
只在master安装即可
下载Hive的安装包并解压
tar -zxvf hive-2.3.7.tar.gz -C ~/bigdata/ |
进入到 解压后的hive目录找到 conf目录, 修改配置文件
cp hive-env.sh.template hive-env.sh vi hive-env.sh |
在hive-env.sh中指定hadoop的路径
HADOOP_HOME=/home/hadoop/bigdata/hadoop |
配置环境变量
vim ~/.bashrc # hive export HIVE_HOME=/home/hadoop/bigdata/hive export PATH=$HIVE_HOME/bin:$PATH #保存退出后 source ~/.bash_profile |
与mysql连接
上传 mysql驱动到 hive安装目录的lib目录下
cp mysql-connector-java-8.0.19.jar /home/hadoop/bigdata/hive/lib/ |
vi conf/hive-site.xml 配置 Mysql 元数据库信息
<configuration> <!-- Hive产生的元数据存放位置--> <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive/warehouse</value> </property> <!--- 使用本地服务连接Hive,默认为true--> <property> <name>hive.metastore.local</name> <value>true</value> </property> <!-- 数据库连接JDBC的URL地址--> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://localhost:3306/hive</value> </property> <!-- 数据库连接driver,即MySQL驱动--> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.cj.jdbc.Driver</value> </property> <!-- MySQL数据库用户名--> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>hive</value> </property> <!-- MySQL数据库密码--> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>123</value> </property> <property> <name>hive.metastore.schema.verification</name> <value>false</value> </property> <property> <name>datanucleus.schema.autoCreateAll</name> <value>true</value> </property> </configuration> |
在本地mysql中创建hive数据库
启动 hive的metastore元数据服务和hive
hive --service metastore hive |
Sqoop安装
HADOOP 和MYSQL安装ok
sudo tar xzvf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz |
配置环境变量
# sqoop export SQOOP_HOME=/home/hadoop/bigdata/sqoop export PATH=$SQOOP_HOME/bin:$PATH
source ~/.bashrc |
切换到conf目录,配置sqoop-env.sh
cd $SQOOP_HOME/conf mv sqoop-env-template.sh sqoop-env.sh vim sqoop-env.sh export HADOOP_COMMON_HOME=/home/hadoop/bigdata/hadoop export HADOOP_MAPRED_HOME=/home/hadoop/bigdata/hadoop |
移动jdbc,jar包到lib目录下
cp mysql-connector-java-8.0.19.jar-bin.jar /home/hadoop/bigdata/ sqoop/lib |
查看版本号
sqoop-version |
Kafka安装
前提安装zookeeper并启动
解压kafka
tar -zxvf kafka_2.11-1.0.0.tgz |
创建日志存储目录
cd /home/hadoop/bigdata/kafka/ mkdir logs-1 |
修改kafka-server 的配置文件
vim config/server.properties |
修改配置文件中21、31、36和60行
broker.id=1 listeners=PLAINTEXT://:9092 advertised.listeners=PLAINTEXT://host_ip:9092 log.dirs=/home/wzj/kafka/logs-1 |
1.Hadoop hdfs使用
hdfs是分布式存储工具,按块存储。
查看文件
hadoop fs -ls <args>
查看文件内容
hadoop fs -cat <src>
移动文件
hadoop fs -mv URI [URI …] <dest>
上传本地文件到hdfs
hadoop fs -put <localsrc> ... <dst>
下载hdfs文件到本地
hadoop fs -get <localsrc> ... <dst>
删除文件
hadoop fs -rm URI [URI …]
2.Hadoop mapreduce使用
Mapreduce是分布式计算的工具,因为有大量IO操作,速度慢适合离线操作
案例:Word Count 词频统计
test.py
hadoop spark hadoop spark hdfs mapreduce hadoop |
mapper.py
import sys for line in sys.stdin: line = line.strip() words = line.split() for word in words: print("%s %d"%(word,1)) |
reducer.py
import sys current_word = None current_count = 0 word = None for line in sys.stdin: line = line.strip() word,count = line.split() try: count = int(count) except ValueError: continue
if word == current_word: current_count += count else: if current_word: print("%s\t%d" % (current_word,current_count)) current_word = word current_count = count if current_word == word: print("%s\t%d" % (current_word,current_count)) |
运行
1)不使用hadoop,在linux下测试脚本
$cat test.txt | python mapper.py|sort|python reducer.py |
2)使用hadoop
vim ./streaming.sh添加。需要将test.txt文件上传到hdfs上
STREAM_JAR_PATH="/home/hadoop/bigdata/hadoop/share/hadoop/tools/lib/hadoop-streaming-2.10.0.jar" #指定JAR包位置 INPUT_FILE_PATH_1="/test.txt" #指定读取文件位置 OUTPUT_PATH="/output" #指定输出文件位置
hadoop fs -rm -r -skipTrash $OUTPUT_PATH
hadoop jar $STREAM_JAR_PATH -input $INPUT_FILE_PATH_1 -output $OUTPUT_PATH -mapper "python mapper.py" -reducer "python reducer.py" -file ./mapper.py -file ./reducer.py |
3.Hive使用
1)基本使用方法
创建数据库
CREATE DATABASE test; |
显示所有数据库
SHOW DATABASES; |
创建表
CREATE TABLE student(classNo string, stuNo string, score int) row format delimited fields terminated by ','; |
row format delimited fields terminated by ',' 指定了字段的分隔符为逗号,所以load数据的时候,load的文本也要为逗号,否则加载后为NULL。hive只支持单个字符的分隔符,hive默认的分隔符是\001。
将数据load到表中
在本地文件系统创建一个如下的文本文件:/home/hadoop/tmp/student.txt
C01,N0101,82 C01,N0102,59 C01,N0103,65 C02,N0201,81 C02,N0202,82 C02,N0203,79 C03,N0301,56 C03,N0302,92 C03,N0306,72 |
这个命令将student.txt文件复制到hive的warehouse目录中,这个目录由hive.metastore.warehouse.dir配置项设置,默认值为/user/hive/warehouse。Overwrite选项将导致Hive事先删除student目录下所有的文件, 并将文件内容映射到表中。
load data local inpath '/home/hadoop/tmp/student.txt' overwrite into table student; |
查询表中的数据
hive>select * from student; |
分组查询group by和统计count
hive>select classNo,count(score) from student where score>=60 group by classNo; |
显示表信息
hive>desc student; |
删除表查看结果
hive>drop table student; |
2)综合案例
需求:根据用户行为以及文章标签筛选出用户最感兴趣(阅读最多)的标签。
用户行为表user_actions
user_id article_id event_time 11,101,2018-12-01 06:01:10 22,102,2018-12-01 07:28:12 33,103,2018-12-01 07:50:14 11,104,2018-12-01 09:08:12 22,103,2018-12-01 13:37:12 33,102,2018-12-02 07:09:12 11,101,2018-12-02 18:42:12 35,105,2018-12-03 09:21:12 22,104,2018-12-03 16:42:12 77,103,2018-12-03 18:31:12 99,102,2018-12-04 00:04:12 33,101,2018-12-04 19:10:12 11,101,2018-12-05 09:07:12 35,102,2018-12-05 11:00:12 22,103,2018-12-05 12:11:12 77,104,2018-12-05 18:02:02 99,105,2018-12-05 20:09:11 |
文章数据articles
artical_id,artical_url,artical_keywords 101,http://www.itcast.cn/1.html,kw8|kw1 102,http://www.itcast.cn/2.html,kw6|kw3 103,http://www.itcast.cn/3.html,kw7 104,http://www.itcast.cn/4.html,kw5|kw1|kw4|kw9 105,http://www.itcast.cn/5.html, |
数据上传hdfs
hadoop fs -mkdir /tmp/demo hadoop fs -mkdir /tmp/demo/user_action |
创建外部表
drop table if exists user_actions; CREATE EXTERNAL TABLE user_actions( user_id STRING, article_id STRING, time_stamp STRING ) ROW FORMAT delimited fields terminated by ',' LOCATION '/tmp/demo/user_action'; |
drop table if exists articles; CREATE EXTERNAL TABLE articles( article_id STRING, url STRING, key_words array<STRING> ) ROW FORMAT delimited fields terminated by ',' COLLECTION ITEMS terminated BY '|' LOCATION '/tmp/demo/article_keywords'; /* key_words array<STRING> 数组的数据类型 COLLECTION ITEMS terminated BY '|' 数组的元素之间用'|'分割 */ |
查看数据
select * from user_actions; select * from articles; |
需要使用到的方法
- collect_set/collect_list
group by之后 针对某一列聚合 结果放到[]
区别一个去重一个不去重
- lateral view explode
explode函数把复杂类型array map拆开 一行变多行
lateral view 和 explode函数 配合使用 创建虚拟视图 可以把 explode的结果和其他列一起查询
select article_id,kw from articles lateral view explode(key_words) t as kw;
- concat,concat_ws
不同列的字符串拼接到一起
concat_ws 可以把array中的元素拼接到同一个字符串中指定分割符
- str_to_map 把具有key:value形式字符串转换成map
根据文章id找到用户查看文章的关键字并统计频率
select a.user_id, b.kw,count(1) as weight from user_actions as a left outer JOIN (select article_id,kw from articles lateral view outer explode(key_words) t as kw) b on (a.article_id = b.article_id) group by a.user_id,b.kw order by a.user_id,weight desc; |
结果
11 kw1 4 11 kw8 3 11 kw5 1 11 kw9 1 11 kw4 1 22 kw7 2 22 kw9 1 22 kw1 1 22 kw3 1 22 kw4 1 22 kw5 1 22 kw6 1 33 kw3 1 33 kw8 1 33 kw7 1 33 kw6 1 33 kw1 1 35 NULL 1 35 kw3 1 35 kw6 1 77 kw1 1 77 kw4 1 77 kw5 1 77 kw7 1 77 kw9 1 99 NULL 1 99 kw3 1 99 kw6 1 |
将用户查看的关键字和频率合并成 key:value形式并按用户聚合
select cc.user_id,str_to_map(concat_ws(',',collect_set(cc.kw_w))) as wm from(select a.user_id, concat_ws(':',b.kw,cast (count(1) as string)) as kw_w from user_actions as a left outer JOIN (select article_id,kw from articles lateral view outer explode(key_words) t as kw) b on (a.article_id = b.article_id) group by a.user_id,b.kw ) as cc group by cc.user_id; |
结果
11 {"kw1":"4","kw4":"1","kw5":"1","kw8":"3","kw9":"1"} 22 {"kw1":"1","kw3":"1","kw4":"1","kw5":"1","kw6":"1","kw7":"2","kw9":"1"} 33 {"kw1":"1","kw3":"1","kw6":"1","kw7":"1","kw8":"1"} 35 {"1":null,"kw3":"1","kw6":"1"} 77 {"kw1":"1","kw4":"1","kw5":"1","kw7":"1","kw9":"1"} 99 {"1":null,"kw3":"1","kw6":"1"} |
将用户的阅读偏好结果保存到表中
create table user_kws as select cc.user_id,str_to_map(concat_ws(',',collect_set(cc.kw_w))) as wm from(select a.user_id, concat_ws(':',b.kw,cast (count(1) as string)) as kw_w from user_actions as a left outer JOIN (select article_id,kw from articles lateral view outer explode(key_words) t as kw) b on (a.article_id = b.article_id) group by a.user_id,b.kw) as cc group by cc.user_id; |
查看新创建的表
从表中通过key查询map中的值
从表中获取map中所有的key 和 所有的value
用lateral view explode把map中的数据转换成多列
4.Hbase使用
名称 | 命令表达式 |
查看所有表 | list |
创建表 | create '表名', '列族名1','列族名2','列族名n' |
添加记录 | put '表名','行名','列名:','值 |
查看记录 | get '表名','行名' |
查看表中的记录总数 | count '表名' |
删除记录 | delete '表名', '行名','列名' |
删除一张表 | 第一步 disable '表名' 第二步 drop '表名' |
查看所有记录 | scan "表名称" |
查看指定表指定列所有数据 | scan '表名' ,{COLUMNS=>'列族名:列名'} |
更新记录 | 重写覆盖 |
创建命名空间 | create_namespace 'test' |
删除命名空间 | drop_namespace ‘test’ |
创建表并且删除表
创建命名空间并在命名空间内创建表
插入数据
查询表中的所有数据
Scan查询中添加限制条件
限制输出两行
STARTROW 限制起始的Rowkey
ROWPREFIXFILTER rowkey 前缀过滤器
查询某个rowkey的数据
查询某个列簇的数据
删除表中的数据
清空数据
5.Kafka使用
启动kafka服务
> bin/kafka-server-start.sh config/server.properties & |
创建一个主题(topic)
> bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test |
创建好之后,可以通过运行以下命令,查看已创建的topic信息
> bin/kafka-topics.sh --list --zookeeper localhost:2181 test |
发送消息
消费消息
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
相关文章
- 用idea操作RabbitMQ
第一步 确保你的端口都开放了,浏览器可以访问得到。在配置文件中第二步 注入RabbitTemplete第三部操作这是发消息的操作,需要指定交换器以及路由键。若传过去的是对象。则需要配置默认序列化。获取队列中的消息:创建一个交换器和队列,并绑定...
2024/4/16 9:17:05 - 数据预处理与关联
数据预处理与关联 数据质量的含义正确性 一致性 完整性 可靠性在建立数据仓库的时候,由于各种原因造成里数据错误的不可避免性,所以便需要对数据进行预处理。 形式数据清理缺失值:忽略、人工填写、全局变量填充、属性平均值填充、最可能值填充、所有同类样本平均值填充。 噪…...
2024/4/15 5:58:47 - springBoot对jedis的整合and顶替登录续租和缓存查询的后台代码功能实现案例
1.springBoot对jedis的整合: springBoot对jedis做了很好的整合帮我们把槽道这一类算法已经给封装了起来,我们需要的仅仅是学会使用他的api即可 第一步:在pom文件中使用依赖:<dependency><groupId>org.springframework.boot</groupId><artifactId>s…...
2024/4/15 5:58:44 - 一张图说明wav文件头各段表示的含义
如图是一个wav文件用十六进制格式打开16进制-10进制在线转换器:https://tool.oschina.net/hexconvert16进制-文本字符串转换器:https://www.bejson.com/convert/ox2str/参考文档:https://www.cnblogs.com/ranson7zop/p/7657874.html这篇文章图标有点乱,但是都是干货与数字音…...
2024/4/19 9:28:22 - Java注解的理解
java注解:注解,也叫元数据。可以声明在包、类、字段、方法、局部变量、方法参数等前面,来对这些元素进行说明,注释等。元注解:java提供了四个元注解,所谓元注解就是负责注解其他注解。1.@Target :规定注解所修饰的对象范围。ElementType.CONSTRUCTIR; 构造器声明 Elemen…...
2024/5/2 8:35:11 - 酷安开发者签名认证步骤
先将你要上传酷安的APK安装包和你项目的签名文件和酷安提供的未签名apk包放到桌面如下图:然后打开cmd进入桌面输入下面命令:jarsigner -verbose -keystore TakeOut.jks -signedjar TakeOut.apk CoolApkDevVerify_no_sign.apk XiaYiYeTakeOutTakeOut.jks:代表你的项目签名文件…...
2024/4/24 9:54:13 - Android UI架构(六)--探秘刷新动力Vsync(2)之DispSync.md
文章目录参考资料一. DispSync二. DispSync初始化2.1 SurfaceFlinger2.2 DispSync创建2.3 SurfaceFlinger::SurfaceFlinger2.4 DispSync.init2.4.1 DispSyncThread.threadLoop三. enableVysncLocked后续3.1 DispSync.addEventListener3.2 DispSync.DispSyncThread.addEventList…...
2024/5/2 10:33:00 - spring学习日志
javax.servlet.ServletException: Servlet[springDispatcherServlet]的Servlet.init()引发异常 org.apache.jasper.runtime.PageContextImpl.forward(PageContextImpl.java:530) org.apache.jsp.welcome_jsp._jspService(welcome_jsp.java:122) org.apache.jasper.runtime.Ht…...
2024/4/24 9:54:10 - CentOS6.9编译安装Sphinx并使用php7的sphinx扩展实现全文搜索
本篇笔记记录了CentOS6.9编译安装Sphinx,编译安装php-sphinx扩展,并使用php7的sphinx扩展实现全文搜索的过程nginx+mysql+php安装请参考以下笔记: CentOS7源码编译安装nginx+php7.2+mysql5.7并使用systemctl管理 CentOS7yum安装nginx+php7+mysql CentOS6.9源码编译安装nginx…...
2024/4/24 9:54:09 - Java实现自定义自旋锁
自旋锁 1.空轮询实现此处主要利用while空轮询以及原子包的CASpackage com.gy.spinlock;import java.util.concurrent.atomic.AtomicInteger;/*** 利用空轮询实现*/ public class SpinLock01 {private AtomicInteger state = new AtomicInteger(0);public void lock() {while (!…...
2024/4/24 9:54:08 - 基于深度学习的图像超分辨率重建技术的研究_思维导图
本文的思维导图是介绍基于深度学习的图像超分辨率重建技术的研究_思维导图 高清版本请见 https://github.com/Lininggggggg/(求赞) 或者csdn下载区https://download.csdn.net/download/Lininggggggg/12486246...
2024/4/24 9:54:14 - 觉得会却又忘记怎么写的SQL(一)
觉得会却又忘记怎么写的SQL 目录觉得会却又忘记怎么写的SQLSQL在线测试地址select basicstablename worldIN 当你需要查询某个字段的多种结果的时候between 当你需要取一个范围的结果集时like 当你需要获得某个字段包含某个字符串的结果集时小括号的妙用(),把多个where条件变成…...
2024/4/24 9:54:06 - pytorch使用——(七)模型容器Containers
一、网络层容器Containers二、容器之Sequentialnn.Sequential 是 nn.module的容器,用于按顺序包装一组网络层。局哟如下性质:顺序性:各网络层之间严格按照顺序构建自带forward():自带的forward里,通过for循环依次执行前向传播运算 三、容器之ModuleListnn.ModuleList是 nn…...
2024/4/24 9:54:05 - 【学习记录】day5 Task5 模型集成 (Datawhale 零基础⼊⻔CV)
5 模型集成 本章讲解的知识点包括:集成学习方法、深度学习中的集成学习和结果后处理思路。 5.1 学习目标 学习集成学习方法以及交叉验证情况下的模型集成 学会使用深度学习模型的集成学习 5.2 集成学习方法 在机器学习中的集成学习可以在一定程度上提高预测精度,常见的集成学…...
2024/5/2 13:37:10 - 20200601小记——C#画图(1)
各位大小伙伴,六一快乐!今天又是烦人的雷雨天,想写点什么还真不好想,便总结下C#一些成图的方法:在C#中,自带的画布本身是一个比较简单的画图工具,直接上代码:public class DrawUnint{Bitmap bitmap;Graphics g;double dCenterX;double dCenterY;double scale;public vo…...
2024/4/24 9:54:03 - 本地mock接口webpack配置proxy
proxy 代理 笔记 本地mock接口webpack配置 proxy: {"/api": {target: "http://localhost:3000",changeOrigin: true,pathRewrite: {"^/api" : "/mockApi"}} }...
2024/4/24 9:54:02 - linux常用命令总结
linux常用命令总结 前言 在dp实习测试工程师期间,由于所有服务器都是在linux平台管理,故接触linux比较多。在此对工作中常用到的linu命令进行总结,以便自己复习,对抗遗忘。 持续更新,在工作中学习。 常用基本命令 pwd 查看当前目录路径 sudo -i 进入root用户 ssh dp@ cd(C…...
2024/5/2 9:15:59 - 币均赋:6.1区间震荡末端,方向突破指日可待
【行情分析】 BTC刚刚触及9400下方立马反弹100点左右,还是未能突破9600压力位,四小时来看,布林带缩口平移在中轨上方运行,MACD小幅缩量排列在零轴下方,KDJ中位运行粘合,有酝酿金又走势,综合技术面有技术震荡上行趋势。一小时线来看,布林带上轨压力比较大,短时有压力回…...
2024/4/19 18:40:46 - 【归档,python练习,6.1】(单行动态刷新文本进度条等)
基本数据类型练习内容 1、天天向上的力量 我们知道每天进步1%,365天后会是1.01^365 = 37.78 那如果365天中每周五天工作进步1%,剩下两天休息每天退步1%,结果会是多少呢? dayup = 1.0 dayfactor = 0.01 for i in range(365):if i % 7 in [6,0]:dayup = dayup*(1-dayfactor)e…...
2024/4/15 1:05:50 - Python渗透测试工具库
转载自:https://www.t00ls.net/pytools.html漏洞及渗透练习平台 WebGoat漏洞练习平台: https://github.com/WebGoat/WebGoat webgoat-legacy漏洞练习平台: https://github.com/WebGoat/WebGoat-Legacy zvuldirll漏洞练习平台: https://github.com/710leo/ZVulDrill vulapps漏…...
2024/4/20 3:27:49
最新文章
- 关于一个error C2664错误代码的解析
具体错误信息如下所示: error C2664: “osgEarth::UID osgEarth::Util::ShaderFactory::addPreProcessorCallback(osg::Referenced *,std::function<void (std::string &,osg::Referenced *)>)”: 无法将参数 2 从“osgEarth::Util::PbrLightEffect::att…...
2024/5/3 20:55:06 - 梯度消失和梯度爆炸的一些处理方法
在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言,在此感激不尽。 权重和梯度的更新公式如下: w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...
2024/3/20 10:50:27 - 自动化标准Makefile与lds
makefile的自动化,需要使用变量,以及自动变量。 实行命令行与参数的分离。 命令行只与变量打交道,而变量则携带不同的参数,这样,通过修改变量,命令的执行结果不同。 可以简单理解为,命令行是个…...
2024/5/3 10:04:44 - 3d representation的一些基本概念
顶点(Vertex):三维空间中的一个点,可以有多个属性,如位置坐标、颜色、纹理坐标和法线向量。它是构建三维几何形状的基本单元。 边(Edge):连接两个顶点形成的直线段,它定…...
2024/5/2 17:20:39 - 【外汇早评】美通胀数据走低,美元调整
原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...
2024/5/1 17:30:59 - 【原油贵金属周评】原油多头拥挤,价格调整
原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...
2024/5/2 16:16:39 - 【外汇周评】靓丽非农不及疲软通胀影响
原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...
2024/4/29 2:29:43 - 【原油贵金属早评】库存继续增加,油价收跌
原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...
2024/5/2 9:28:15 - 【外汇早评】日本央行会议纪要不改日元强势
原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...
2024/4/27 17:58:04 - 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响
原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...
2024/4/27 14:22:49 - 【外汇早评】美欲与伊朗重谈协议
原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...
2024/4/28 1:28:33 - 【原油贵金属早评】波动率飙升,市场情绪动荡
原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...
2024/4/30 9:43:09 - 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试
原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...
2024/4/27 17:59:30 - 【原油贵金属早评】市场情绪继续恶化,黄金上破
原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...
2024/5/2 15:04:34 - 【外汇早评】美伊僵持,风险情绪继续升温
原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...
2024/4/28 1:34:08 - 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势
原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...
2024/4/26 19:03:37 - 氧生福地 玩美北湖(上)——为时光守候两千年
原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...
2024/4/29 20:46:55 - 氧生福地 玩美北湖(中)——永春梯田里的美与鲜
原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...
2024/4/30 22:21:04 - 氧生福地 玩美北湖(下)——奔跑吧骚年!
原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...
2024/5/1 4:32:01 - 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!
原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...
2024/4/27 23:24:42 - 「发现」铁皮石斛仙草之神奇功效用于医用面膜
原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...
2024/4/28 5:48:52 - 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者
原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...
2024/4/30 9:42:22 - 广州械字号面膜生产厂家OEM/ODM4项须知!
原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...
2024/5/2 9:07:46 - 械字号医用眼膜缓解用眼过度到底有无作用?
原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...
2024/4/30 9:42:49 - 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...
解析如下:1、长按电脑电源键直至关机,然后再按一次电源健重启电脑,按F8健进入安全模式2、安全模式下进入Windows系统桌面后,按住“winR”打开运行窗口,输入“services.msc”打开服务设置3、在服务界面,选中…...
2022/11/19 21:17:18 - 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。
%读入6幅图像(每一幅图像的大小是564*564) f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...
2022/11/19 21:17:16 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...
win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面,在等待界面中我们需要等待操作结束才能关机,虽然这比较麻烦,但是对系统进行配置和升级…...
2022/11/19 21:17:15 - 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...
有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows,请勿关闭计算机”的提示,要过很久才能进入系统,有的用户甚至几个小时也无法进入,下面就教大家这个问题的解决方法。第一种方法:我们首先在左下角的“开始…...
2022/11/19 21:17:14 - win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...
置信有很多用户都跟小编一样遇到过这样的问题,电脑时发现开机屏幕显现“正在配置Windows Update,请勿关机”(如下图所示),而且还需求等大约5分钟才干进入系统。这是怎样回事呢?一切都是正常操作的,为什么开时机呈现“正…...
2022/11/19 21:17:13 - 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...
Win7系统开机启动时总是出现“配置Windows请勿关机”的提示,没过几秒后电脑自动重启,每次开机都这样无法进入系统,此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一:开机按下F8,在出现的Windows高级启动选…...
2022/11/19 21:17:12 - 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...
有不少windows10系统用户反映说碰到这样一个情况,就是电脑提示正在准备windows请勿关闭计算机,碰到这样的问题该怎么解决呢,现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法:1、2、依次…...
2022/11/19 21:17:11 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...
今天和大家分享一下win7系统重装了Win7旗舰版系统后,每次关机的时候桌面上都会显示一个“配置Windows Update的界面,提示请勿关闭计算机”,每次停留好几分钟才能正常关机,导致什么情况引起的呢?出现配置Windows Update…...
2022/11/19 21:17:10 - 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...
只能是等着,别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚,只能是考虑备份数据后重装系统了。解决来方案一:管理员运行cmd:net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...
2022/11/19 21:17:09 - 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?
原标题:电脑提示“配置Windows Update请勿关闭计算机”怎么办?win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢?一般的方…...
2022/11/19 21:17:08 - 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...
关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!关机提示 windows7 正在配…...
2022/11/19 21:17:05 - 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...
钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...
2022/11/19 21:17:05 - 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...
前几天班里有位学生电脑(windows 7系统)出问题了,具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面,长时间没反应,无法进入系统。这个问题原来帮其他同学也解决过,网上搜了不少资料&#x…...
2022/11/19 21:17:04 - 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...
本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法,并在最后教给你1种保护系统安全的好方法,一起来看看!电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中,添加了1个新功能在“磁…...
2022/11/19 21:17:03 - 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...
许多用户在长期不使用电脑的时候,开启电脑发现电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机。。.这要怎么办呢?下面小编就带着大家一起看看吧!如果能够正常进入系统,建议您暂时移…...
2022/11/19 21:17:02 - 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...
配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!配置windows update失败 还原更改 请勿关闭计算机&#x…...
2022/11/19 21:17:01 - 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...
不知道大家有没有遇到过这样的一个问题,就是我们的win7系统在关机的时候,总是喜欢显示“准备配置windows,请勿关机”这样的一个页面,没有什么大碍,但是如果一直等着的话就要两个小时甚至更久都关不了机,非常…...
2022/11/19 21:17:00 - 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...
当电脑出现正在准备配置windows请勿关闭计算机时,一般是您正对windows进行升级,但是这个要是长时间没有反应,我们不能再傻等下去了。可能是电脑出了别的问题了,来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...
2022/11/19 21:16:59 - 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...
我们使用电脑的过程中有时会遇到这种情况,当我们打开电脑之后,发现一直停留在一个界面:“配置Windows Update失败,还原更改请勿关闭计算机”,等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢࿰…...
2022/11/19 21:16:58 - 如何在iPhone上关闭“请勿打扰”
Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...
2022/11/19 21:16:57