概述

Kafka是Apache软件基金会的开源的流处理平台,该平台提供了消息的订阅与发布,能够基于Kafka实现对网络日志流实时在线处理,在这个维度上弥补了Hadoop的离线分析系统的不足。因为基于hadoop的MapReduce系统分析离线数据延迟较高,而且不支持动态数据处理和分析。Kafka的流处理平台不仅仅可以为离线系统储备数据(通常使用Kafka作为数据缓冲),而且Kafka自身也提供了一套数据流的处理机制,实现对数据流在线处理,比如: 统计。

消息队列的概念

可以用于系统间通讯的一个组件-middle ware(中间件),该组件可以用于做消息缓冲的中间件(持久化)解决一些 并发处理、数据库缓冲等实现对高并发的业务场景的削峰填谷。

使用消息队列的场景分析

1.异步消息发送:

使用Kafka MQ功能实现模块间异步通信,把一些费时的操作交给额外的服务或者设备去执行,这样可以提升系统运行效率,加速连接释放的速度,例如:用户注册模块,在用户注册成功后,业务系统需要给用户发送一个通知短信,通知用户登录邮箱去激活刚注册的用户信息。这种业务场景如图所示,因为短信通知和邮件发送是一个比较耗时的操作,所以在这里没必要将短信和邮件发送作为注册模块的流程,使用Message Queue功能可以将改业务和主业务注册分离,这样可以缩短用户浏览器和服务建立的链接时间,同时也能满足发送短信和邮件的业务。

2.系统间解耦合

①在某些高吞吐的业务场景下,可能会出现在某一个时间段系统负载写入的负载压力比较大,短时间有大量的数据需要持久化到数据库中,但是由于数据的持久化需要数据库提供服务,由于传统的数据库甚至一些NoSQL产品也不能很好的解决高并发写入,因为数据库除去要向用户提供链接之外,还需要对新来的数据做持久化,这就需要一定的时间才能将数据落地到磁盘。因此在高并发写入的场景,就需要用户集成Message Queue在数据库前作为缓冲队列。在队列的另一头只需要程序有条不紊的将数据写入到数据库即可,这就保证无论外界写入压力有多么大都可以借助于Message Queue缓解数据库的压力。

②Message Queue除了解决对数据缓冲的压力之外,还可以充当业务系统的中间件(Middleware)作为系统服务间解耦的组件存在,例如上图所示订单模块和库存模块中就可以使用Message Queue作为缓冲队列实现业务系统服务间的解耦,也就意味着即使服务在运行期间库存系统宕机也并不会影响订单系统的正常运行

Kafka 架构

集群模式
Kafka集群以Topic形式负责管理集群中的Record,每一个Record属于一个Topic。底层Kafka集群通过日志分区形式持久化Record。在Kafka集群中,Topic的每一个分区都一定会有1个Borker担当该分区的Leader,其他的Broker担当该分区的follower(取决于分区的副本因子)。一旦对应分区的Lead宕机,kafka集群会给当前的分区指定新的Borker作为该分区的Leader。分区的Leader的选举是通过Zookeeper一些特性实现的,这里就不在概述了。Leader负责对应分区的读写操作,Follower负责数据备份操作。
在这里插入图片描述
日志&分区
Kafka集群是通过日志形式存储Topic中的Record,Record会根据分区策略计算得到的分区数存储到相应分区的文件中。每个分区都是一个有序的,不可变的记录序列,不断附加到结构化的commit-log中。每个分区文件会为Record进去分区的顺序进行编排。每一个分区中的Record都有一个id,该id标示了该record进入分区的先后顺序,通常将该id称为record在分区中的offset偏移量从0开始,依次递增。
在这里插入图片描述
Kafka集群持久地保留所有已发布的记录 - 无论它们是否已被消耗 - 使用可配置的保留时间。例如,如果保留策略设置为2天,则在发布记录后的2天内,它可供使用,之后将被丢弃以释放空间。Kafka的性能在数据大小方面实际上是恒定的,因此长时间存储数据不是问题。

事实上,基于每个消费者保留的唯一元数据是该消费者在日志中的偏移或位置。这种offset由消费者控制:通常消费者在读取记录时会线性地增加其偏移量,但事实上,由于消费者控制位置,它可以按照自己喜欢的任何顺序消费记录。例如,消费者可以重置为较旧的偏移量以重新处理过去的数据,或者跳到最近的记录并从“现在”开始消费。

分区数目决定系统对外的吞吐能力,分区数目越大吞吐性能越好。通常来说队列一定保证FIFO,但是由于Kafka采取了hash(key)%分区数的分区策略将数据发送到对应的分区中,因此Kafka的Topic只能保证分区内部数据遵循FIFO策略。

生产者
生产者负责发送Record到Kafka集群中的Topic中。在发布消息的时候,首先先计算Record分区计算方案有三种:①如果用户没有指定分区但是指定了key信息,生产者会根据hash(key)%分区数计算该Record所属分区信息,②如果生产者在发送消息的时候并没有key,也没有指定分区数,生产者会使用轮训策略选择分区信息。③如果指定了分区信息,就按照指定的分区信息选择对应的分区;当分区参数确定以后生产者会找到相应分区的Leader节点将Record记录写入到Topic日志存储分区中。
消费者
消费者作为消息的消费者,消费者对Topic中消息的消费是以Group为单位进行消费,Kafka服务会自动的按照组内和组间对消费者消费的分区进行协调。
在这里插入图片描述

  • 组内均分分区,确保一个组内的消费者不可重复消费分区中的数据,一般来说一个组内的消费者实例对的数目应该小于或者等于分区数目。
  • 组间广播形式消费,确保所有组都可以拿到当前Record。组间数据之间可以保证对数据的独立消费。

Kafka集群安装

环境准备
准备三台主机名分别为CentOSA|CentOSB|CentOSC的Linux系统主机
分别关闭防火墙、相互做主机名映射、校对物理时钟、安装配置JDK8配置JAVA_HOME
安装Zookeeper集群确保Kafka集群的正常运行在这里插入代码片

tar -zxf zookeeper-3.4.6.tar.gz -C /usr/
mkdir /root/zkdata#分别在三台机器执行以下命令
echo 1 >> /root/zkdata/myid
echo 2 >> /root/zkdata/myid
echo 3 >> /root/zkdata/myidtouch /usr/zookeeper-3.4.6/conf/zoo.cfg
vim /usr/zookeeper-3.4.6/conf/zoo.cfg

zoo.cfg配置文件

tickTime=2000
dataDir=/root/zkdata
clientPort=2181
initLimit=5
syncLimit=2server.1=CentOSA:2887:3887
server.2=CentOSB:2887:3887
server.3=CentOSC:2887:3887

启动zookeeper并查看zookeeper当前状态

/usr/zookeeper-3.4.6/bin/zkServer.sh start zoo.cfg     #启动
/usr/zookeeper-3.4.6/bin/zkServer.sh status zoo.cfg    #查看状态

Kafka安装步骤

  • 下载Kafka服务安装包http://archive.apache.org/dist/kafka/2.2.0/kafka_2.11-2.2.0.tgz
tar -zxf kafka_2.11-2.2.0.tgz -C /usr
vim /usr/kafka_2.11-2.2.0/config/server.properties
############################# Server Basics #############################
broker.id=[0|1|2]  #三台机器分别 0/1/2
############################# Socket Server Settings #############################
listeners=PLAINTEXT://CentOS[A|B|C]:9092 #三台机器分别A、B、C
############################# Log Basics #############################
# A comma separated list of directories under which to store log files
log.dirs=/usr/kafka-logs
############################# Zookeeper #############################
zookeeper.connect=CentOSA:2181,CentOSB:2181,CentOSC:2181

本案例中安装的是kafka_2.11-2.2.0.tgz版本,由于Kafka底层使用的Scala和Java混编,因此在kafka发行版本例如:kafka_2.11-2.2.0.tgz其中2.11是Scala的编译版本,因为Scala兼容Java所以运行Kafka无需安装Scala环境;2.2.0是kafka的版本号。Kafka从0.11.x以后加入事务等特性的支持。

配置说明

配置项 说明
broker.id 每一台Kafka服务的id信息,必须设置不同。
delete.topic.enable 配置该属性开启删除topic的能力,否则kafka无法删除Topic信息。
listeners 配置Kafka服务的监听服务入口。
log.dirs 配置Kafka日志存储路径,存储消息信息。
log.retention.hours 日志存储时间,一旦日志数据超过改时间,系统会自动删除过期日志。
zookeeper.connect zookeeper链接参数信息,用于保存Kafka元数据信息。

启动服务

cd /usr/kafka_2.11-2.2.0/
./bin/kafka-server-start.sh -daemon config/server.properties
#jps   #使用jps查看kafka进程
5507 Kafka

关闭服务
kafka-server-stop.sh自带的服务脚本中存在的一些问题,用户需要修改该脚本文件,具体修改内容如下所示:
[root@CentOSX kafka_2.11-2.2.0]# vi bin/kafka-server-stop.sh

SIGNAL=${SIGNAL:-TERM}
PIDS=$(jps | grep  Kafka | awk '{print $1}')if [ -z "$PIDS" ]; then
echo "No kafka server to stop"
exit 1
else
kill -s $SIGNAL $PIDS
fi

Kafka自带脚本中PIDS参数获取存在问题,导致每次获取的PIDS都是空信息。

验证是否启动成功

  • 创建Tocpic
[root@CentOSA kafka_2.11-2.2.0]#./bin/kafka-topics.sh
--zookeeper CentOSA:2181,CentOSB:2181,CentOSC:2181 --create --topic topic01 --partitions 3 --replication-factor 3

partitions:日志分区数;replication-factor:分区副本因子

  • 消费者
[root@CentOSA kafka_2.11-2.2.0]#./bin/kafka-console-consumer.sh 
--bootstrap-server CentOSA:9092,CentOSB:9092,CentOSC:9092 
--topic topic01
  • 生产者
 [root@CentOSB kafka_2.11-2.2.0]#./bin/kafka-console-producer.sh 
--broker-list CentOSA:9092,CentOSB:9092,CentOSC:9092 
--topic topic01
> hello kafka

观察CentOSA控制台输出,如果有hello kafka说明安装成功!

Topic管理篇(DDL)

  • 创建Tocpic
[root@CentOSA kafka_2.11-2.2.0]# ./bin/kafka-topics.sh
--zookeeper CentOSA:2181,CentOSB:2181,CentOSC:2181
--create
--topic topic01
--partitions 3
--replication-factor 3
  • Topic详细信息
 ./bin/kafka-topics.sh  --describe  --zookeeper CentOSA:2181,CentOSB:2181,CentOSC:2181  --topic topic01
  • 删除Topic
 ./bin/kafka-topics.sh 
--zookeeper CentOSA:2181,CentOSB:2181,CentOSC:2181  --delete  --topic topic01

如果用户没有配置delete.topic.enable=true,则Topic删除不起作用。

  • Topic列表
./bin/kafka-topics.sh  --zookeeper CentOSA:2181,CentOSB:2181,CentOSC:2181  --list

Kafka API实战(JDK1.8+)

Maven依赖

<dependency><groupId>org.apache.kafka</groupId><artifactId>kafka-clients</artifactId><version>2.2.0</version></dependency><dependency><groupId>org.slf4j</groupId><artifactId>slf4j-api</artifactId><version>1.7.25</version>
</dependency>
<dependency><groupId>log4j</groupId><artifactId>log4j</artifactId><version>1.2.17</version>
</dependency><dependency><groupId>org.slf4j</groupId><artifactId>slf4j-log4j12</artifactId><version>1.7.5</version>
</dependency>

引入log4j.properies

### set log levels ###
log4j.rootLogger = info,stdout 
### 输出到控制台 ###
log4j.appender.stdout = org.apache.log4j.ConsoleAppender
log4j.appender.stdout.Target = System.out
log4j.appender.stdout.layout = org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern =%p %d %c %m %n

在Windos配置主机名和IP映射关系

192.168.111.128 CentOSA
192.168.111.129 CentOSB
192.168.111.130 CentOSC

必须配置主机名和IP的映射关系,否则运行主机在连接kafka服务的时候,会抛出无法解析主机异常或者链接超时,这一点是很多初学者在使用Kafka的时候容易忽略的一点。

Topic管理

管理Topic的核心在于创建AdminClient,通过adminClient完成对Topic的基础管理

//创建AdminClient
Properties props = new Properties();
props.put(AdminClientConfig.BOOTSTRAP_SERVERS_CONFIG,"链接参数");
AdminClient adminClient=KafkaAdminClient.create(props);// todo your code here//关闭连接
adminClient.close();

Topic创建

List<NewTopic> newTopics = Arrays.asList(new NewTopic("topic01", 3, (short)2));
adminClient.createTopics(newTopics);

Topic列表

ListTopicsResult topics = adminClient.listTopics();
topics.names()
.get()
.stream()
.forEach((topic)-> System.out.println(topic));

Topic详情

adminClient.describeTopics(Arrays.asList("topic01")).all().get().entrySet().stream().forEach((entry)-> {String topic=entry.getKey();System.out.println(topic);TopicDescription descr = entry.getValue();List<TopicPartitionInfo> partitions = descr.partitions();for (TopicPartitionInfo partition : partitions) {System.out.println("\t"+partition);}});

Topic删除

adminClient.deleteTopics(Arrays.asList("topic01"));

集群状态

adminClient.describeCluster().nodes().get().stream().forEach((node)-> System.out.println(node) );

生产者

生产者负责产生消息,并且将生产的消息发送到kafka集群中,在Kaka集群中所有发送的消息都必须是以二进制分区日志形式存储,因此生产者在发送的数据之前需要指定数据序列化规则

import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;import java.text.DecimalFormat;
import java.util.Properties;public class KafkaProducerDemo {public static void main(String[] args) {//1.配置生产者连接属性Properties props = new Properties();props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"CentOSA:9092,CentOSB:9092,CentOSC:9092");props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");//2.创建Kafka生产者KafkaProducer<String, String> producer = new KafkaProducer<String, String>(props);//3.构建ProducerRecordfor (int i=0;i<10;i++){DecimalFormat decimalFormat = new DecimalFormat("000");ProducerRecord<String, String> record = new ProducerRecord<String, String>("topic04", decimalFormat.format(i), "value" + i);//4.发送消息producer.send(record);}//5.清空缓冲区producer.flush();//6.关闭生产者producer.close();}
}

生产者常见的属性配置及其含义

属性 默认值 含义 是否必须
bootstrap.servers “” 连接kafka集群连接参数
key.serializer null key序列化规则
value.serializer null value序列化规则
acks 1 生产者要求leader在考虑完成请求之前收到的确认数量。
retries 2147483647(Integer.MAX_VALUE) 当没有在规定时间内acker,则认定发送失败,重试次数
batch.size 16384 一次缓冲多少数据,并不是一条数据就会触发发送
linger.ms 0 间隔多长时间构建一次batch发送
request.timeout.ms 30000 设置客户端最大等待超时时间
enable.idempotence false 是否开启幂等性,可以保证生产者一个Record只发送一次给broker

消费者

消费者负责消费集群中的消息,消费者消费Topic中的消息是按照group消费形式订阅的。

import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;import java.time.Duration;
import java.util.Arrays;
import java.util.Properties;public class KafkaConsumerDemo {public static void main(String[] args) {//1.配置消费者连接属性Properties props = new Properties();props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"CentOSA:9092,CentOSB:9092,CentOSC:9092");props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");props.put(ConsumerConfig.GROUP_ID_CONFIG,"group1");//2.创建Kafka消费者KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(props);//3.订阅topicsconsumer.subscribe(Arrays.asList("topic01"));//4.死循环读取消息while(true){ConsumerRecords<String, String> records = consumer.poll(Duration.ofSeconds(1));if(records!=null && !records.isEmpty()){for (ConsumerRecord<String, String> record : records) {int partition = record.partition();long offset = record.offset();long timestamp = record.timestamp();String key = record.key();String value = record.value();System.out.println(partition+"\t"+offset+"\t"+timestamp+"\t"+key+"\t"+value);}}}//consumer.close();}
}

消费者常见的属性配置及其含义

属性 默认值 含义 是否必须
bootstrap.servers “” 连接kafka服务器参数
key.deserializer null key反序列化
value.deserializer null value反序列化
group.id “” 如果是订阅方式,必须指定组id
enable.auto.commit true offset自动提交
auto.commit.interval.ms 5000 自动提交频率

读取数据偏移量控制

默认当用户使用subscribe方式订阅topic消息, 默认首次offset策略是latest。当用户第一次订阅topic在消费者订阅之前的数据是无法消费到 消息的。用户可以配置消费端参数auto.offset.reset控制kafka消费者行为。

Properties props = new Properties();
props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"CentOSA:9092,CentOSB:9092,CentOSC:9092");
props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");
props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");
props.put(ConsumerConfig.GROUP_ID_CONFIG,"group1");props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,"earliest");//默认值 latest  使用earliest可能导致数据重复消费

因为消费端在使用consumer.poll数据的时候,底层会定时的向Kafka服务器提交消费的偏移量。默认消费端的offset是自动提交的,用户如果不希望自动提交偏移量可以配置如下参数

注意如果用户使用subscribe方式订阅topic,在消费端必须指定group.id,这样Kafka才能够实现消费>端负载均衡以及实现组内均分组件广播。(推荐方式)

默认配置

enable.auto.commit	= true
auto.commit.interval.ms	= 5000
props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"false");
public class KafkaConsumerDemo {public static void main(String[] args) {//1.配置生产者连接属性Properties props = new Properties();props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"CentOSA:9092,CentOSB:9092,CentOSC:9092");props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");props.put(ConsumerConfig.GROUP_ID_CONFIG,"group1");props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,false);//2.创建Kafka消费者KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(props);//3.订阅topicsconsumer.subscribe(Arrays.asList("topic01"));//4.死循环读取消息while(true){ConsumerRecords<String, String> records = consumer.poll(Duration.ofSeconds(1));if(records!=null && !records.isEmpty()){Map<TopicPartition, OffsetAndMetadata> offsetMeta=new HashMap<>();for (ConsumerRecord<String, String> record : records) {int partition = record.partition();long offset = record.offset();long timestamp = record.timestamp();String key = record.key();String value = record.value();System.out.println(partition+"\t"+offset+"\t"+timestamp+"\t"+key+"\t"+value);TopicPartition part = new TopicPartition("topic03", partition);//构建分区信息OffsetAndMetadata oam=new OffsetAndMetadata(offset+1);//设置下一次读取起始位置offsetMeta.put(part,oam);//存储需要提交分区参数}consumer.commitSync(offsetMeta);//提交offset}}}
}

指定消费分区

通过assign方式kafka对消费者的组管理策略失效。也就是说用户可以无需配置组ID。

public class KafkaConsumerDemo {public static void main(String[] args) {//1.配置生产者连接属性Properties props = new Properties();props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"CentOSA:9092,CentOSB:9092,CentOSC:9092");props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");//2.创建Kafka消费者KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(props);//3.指定分区consumer.assign(Arrays.asList(new TopicPartition("topic01",1)));consumer.seek(new TopicPartition("topic01",1),1);//4.死循环读取消息while(true){ConsumerRecords<String, String> records = consumer.poll(Duration.ofSeconds(1));if(records!=null && !records.isEmpty()){for (ConsumerRecord<String, String> record : records) {int partition = record.partition();long offset = record.offset();long timestamp = record.timestamp();String key = record.key();String value = record.value();System.out.println(partition+"\t"+offset+"\t"+timestamp+"\t"+key+"\t"+value);}}}}
}

Kafka发送/接收Object

生产Object

public interface Serializer<T> extends Closeable {void configure(Map<String, ?> configs, boolean isKey);//重点实现serializebyte[] serialize(String topic, T data);default byte[] serialize(String topic, Headers headers, T data) {return serialize(topic, data);}@Overridevoid close();
}

消费Object

public interface Deserializer<T> extends Closeable {void configure(Map<String, ?> configs, boolean isKey);//重点实现方法T deserialize(String topic, byte[] data);default T deserialize(String topic, Headers headers, byte[] data) {return deserialize(topic, data);}@Overridevoid close();
}

实现序列化和反序列化

public class ObjectCodec implements Deserializer<Object>, Serializer<Object> {@Overridepublic void configure(Map<String, ?> configs, boolean isKey) {}@Overridepublic byte[] serialize(String topic, Object data) {return SerializationUtils.serialize((Serializable) data);}@Overridepublic Object deserialize(String topic, byte[] data) {return SerializationUtils.deserialize(data);}@Overridepublic void close() {}
}

生产者幂等性

幂等:多次操作最终的影响等价与一次操作称为幂等性操作,所有的读操作一定是幂等的.所有的写操作一定不是幂等的.当 生产者和broker默认有acks应答机制,如果当生产者发送完数据给broker之后如果没有在规定的时间内收到应答,生产者可以考虑重发数据.可以通过一下配置参数提升生产者的可靠性.

acks = all // 0 无需应答  n 应答个数 -1所有都需要
retries = 3 // 表示重试次数
request.timeout.ms = 3000 //等待应答超时时间
enable.idempotence = true //开启幂等性
public class KafkaProducerDemo {public static void main(String[] args) {//1.配置生产者连接属性Properties props = new Properties();props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"CentOSA:9092,CentOSB:9092,CentOSC:9092");props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");props.put(ProducerConfig.ACKS_CONFIG,"all");//等待所有从机应答props.put(ProducerConfig.RETRIES_CONFIG,3);//重试3次props.put(ProducerConfig.REQUEST_TIMEOUT_MS_CONFIG,3000);//等待3s应答props.put(ProducerConfig.ENABLE_IDEMPOTENCE_CONFIG,true);//开启幂等性//2.创建Kafka生产者KafkaProducer<String, String> producer = new KafkaProducer<String, String>(props);//3.构建ProducerRecordfor (int i=15;i<20;i++){DecimalFormat decimalFormat = new DecimalFormat("000");User user = new User(i, "name" + i, i % 2 == 0);ProducerRecord<String, String> record = new ProducerRecord<String, String>("topic01", decimalFormat.format(i), "user"+i);//4.发送消息producer.send(record);}//5.清空缓冲区producer.flush();//6.关闭生产者producer.close();}

生产者批量发送

生产者会尝试缓冲record,实现批量发送,通过一下配置控制发送时机,记住如果开启可batch,一定在关闭producer之前需要flush。

batch.size = 16384 //16KB 缓冲16kb数据本地
linger.ms = 2000 //默认逗留时间
public static void main(String[] args) {//1.配置生产者连接属性Properties props = new Properties();props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"CentOSA:9092,CentOSB:9092,CentOSC:9092");props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");props.put(ProducerConfig.ACKS_CONFIG,"all");props.put(ProducerConfig.RETRIES_CONFIG,3);props.put(ProducerConfig.REQUEST_TIMEOUT_MS_CONFIG,3000);props.put(ProducerConfig.ENABLE_IDEMPOTENCE_CONFIG,true);props.put(ProducerConfig.BATCH_SIZE_CONFIG,1024);//1kb缓冲区props.put(ProducerConfig.LINGER_MS_CONFIG,1000);//设置逗留时常//2.创建Kafka生产者KafkaProducer<String, String> producer = new KafkaProducer<String, String>(props);//3.构建ProducerRecordfor (int i=15;i<20;i++){DecimalFormat decimalFormat = new DecimalFormat("000");User user = new User(i, "name" + i, i % 2 == 0);ProducerRecord<String, String> record = new ProducerRecord<String, String>("topic01", decimalFormat.format(i), "user"+i);//4.发送消息producer.send(record);}//5.清空缓冲区producer.flush();//6.关闭生产者producer.close();
}

生产者事务

kafka生产者事务指的是在发送多个数据的时候,保证多个Record记录发送的原子性。如果有一条发送失败就回退,但是需要注意在使用kafka事务的时候需要调整消费者的事务隔离级别设置为read_committed,因为kafka默认的事务隔离策略是read_uncommitted

transactional.id=transaction-1 //必须保证唯一
enable.idempotence=true //开启kafka的幂等性

只有生产者

public class KafkaProducerDemo {public static void main(String[] args) {//1.创建Kafka生产者KafkaProducer<String, String> producer = buildKafkaProducer();//2.初始化事务和开启事务producer.initTransactions();producer.beginTransaction();try {for (int i=5;i<10;i++){DecimalFormat decimalFormat = new DecimalFormat("000");User user = new User(i, "name" + i, i % 2 == 0);ProducerRecord<String, String> record = new ProducerRecord<String, String>("topic07", decimalFormat.format(i), "user"+i);producer.send(record);}producer.flush();//3.提交事务]producer.commitTransaction();} catch (Exception e) {System.err.println(e.getMessage());//终止事务producer.abortTransaction();}//5.关闭生产者producer.close();}private static KafkaProducer<String, String> buildKafkaProducer() {//0.配置生产者连接属性Properties props = new Properties();props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"CentOSA:9092,CentOSB:9092,CentOSC:9092");props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");props.put(ProducerConfig.ACKS_CONFIG,"all");props.put(ProducerConfig.RETRIES_CONFIG,3);props.put(ProducerConfig.REQUEST_TIMEOUT_MS_CONFIG,3000);props.put(ProducerConfig.ENABLE_IDEMPOTENCE_CONFIG,true);props.put(ProducerConfig.BATCH_SIZE_CONFIG,1024);//1kb缓冲区props.put(ProducerConfig.LINGER_MS_CONFIG,1000);//设置逗留时常//开启事务props.put(ProducerConfig.TRANSACTIONAL_ID_CONFIG,"transaction-"+UUID.randomUUID().toString());return new KafkaProducer<String, String>(props);}
}

消费者那方需要将事务隔离级别设置为read_committed

public class KafkaConsumerDemo {public static void main(String[] args) {//1.创建Kafka消费者KafkaConsumer<String, String> consumer = buildKafkaConsumer();//2.订阅topicsconsumer.subscribe(Arrays.asList("topic07"));//3.死循环读取消息while(true){ConsumerRecords<String, String> records = consumer.poll(Duration.ofSeconds(1));if(records!=null && !records.isEmpty()){for (ConsumerRecord<String, String> record : records) {int partition = record.partition();long offset = record.offset();long timestamp = record.timestamp();String key = record.key();String value = record.value();System.out.println(partition+"\t"+offset+"\t"+timestamp+"\t"+key+"\t"+value);}}}}private static KafkaConsumer<String, String> buildKafkaConsumer() {Properties props = new Properties();props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"CentOSA:9092,CentOSB:9092,CentOSC:9092");props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");props.put(ConsumerConfig.GROUP_ID_CONFIG,"group1");props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,"earliest");props.put(ConsumerConfig.ISOLATION_LEVEL_CONFIG,"read_committed");//消费者设置事务隔离级别return new KafkaConsumer<String, String>(props);}
}

生产者&消费者

import com.msk.demo05.User;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.clients.consumer.OffsetAndMetadata;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.common.TopicPartition;
import org.apache.kafka.common.serialization.StringDeserializer;
import org.apache.kafka.common.serialization.StringSerializer;import java.text.DecimalFormat;
import java.time.Duration;
import java.util.*;public class KafkaProducerAndConsumer {public static void main(String[] args) {String servers = "CentOSA:9092,CentOSB:9092,CentOSC:9092";String group="g1";//1.创建Kafka生产者KafkaProducer<String, String> producer = KafkaUtils.buildKafkaProducer(servers,StringSerializer.class, StringSerializer.class);KafkaConsumer<String, String> consumer = KafkaUtils.buildKafkaConsumer(servers,StringDeserializer.class, StringDeserializer.class,group);consumer.subscribe(Arrays.asList("topic08"));//初始化事务producer.initTransactions();while (true) {producer.beginTransaction();ConsumerRecords<String, String> records = consumer.poll(Duration.ofSeconds(1));try {Map<TopicPartition, OffsetAndMetadata> commits = new HashMap<TopicPartition, OffsetAndMetadata>();for (ConsumerRecord<String, String> record : records) {TopicPartition partition = new TopicPartition(record.topic(), record.partition());OffsetAndMetadata offsetAndMetadata = new OffsetAndMetadata(record.offset() + 1);commits.put(partition, offsetAndMetadata);System.out.println(record);ProducerRecord<String, String> srecord = new ProducerRecord<String, String>("topic09", record.key(), record.value());producer.send(srecord);//将topic08里的数据写入topic09中}producer.flush();//并没使用 consumer提交,而是使用producer帮助消费者提交偏移量producer.sendOffsetsToTransaction(commits,group);//提交生产者的偏移量producer.commitTransaction();} catch (Exception e) {//System.err.println(e.getMessage());producer.abortTransaction();}}}
}

SpringBoot整合Kafka

  • pom.xml
<properties><project.build.sourceEncoding>UTF-8</project.build.sourceEncoding><java.version>1.8</java.version><kafka.version>2.2.0</kafka.version>
</properties><parent><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-parent</artifactId><version>2.1.5.RELEASE</version>
</parent><dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><dependency><groupId>org.springframework.kafka</groupId><artifactId>spring-kafka</artifactId><version>2.2.5.RELEASE</version></dependency><!-- kafka client处理 --><dependency><groupId>org.apache.kafka</groupId><artifactId>kafka-clients</artifactId><version>${kafka.version}</version></dependency>
</dependencies>
  • application.properties
server.port=8888# 生产者
spring.kafka.producer.bootstrap-servers=CentOSA:9092,CentOSB:9092,CentOSC:9092
spring.kafka.producer.acks=all
spring.kafka.producer.retries=1
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer# 消费者
spring.kafka.consumer.bootstrap-servers=CentOSA:9092,CentOSB:9092,CentOSC:9092
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer
  • 代码
@SpringBootApplication
@EnableScheduling
public class KafkaApplicationDemo {@Autowiredprivate KafkaTemplate kafkaTemplate;public static void main(String[] args) {SpringApplication.run(KafkaApplicationDemo.class,args);}@Scheduled(cron = "0/1 * * * * ?")public void send(){String[] message=new String[]{"this is a demo","hello world","hello boy"};ListenableFuture future = kafkaTemplate.send("topic07", message[new Random().nextInt(message.length)]);future.addCallback(o -> System.out.println("send-消息发送成功:" + message), throwable -> System.out.println("消息发送失败:" + message));}@KafkaListener(topics = "topic07",id="g1")public void processMessage(ConsumerRecord<?, ?> record) {System.out.println("record:"+record);}
}
查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. java数据结构

    第一章 数据结构 2.1 数据结构有什么用? 当你用着java里面的容器类很爽的时候,你有没有想过,怎么ArrayList就像一个无限扩充的数组,也好像链表之类的。好用吗?好用,这就是数据结构的用处,只不过你在不知不觉中使用了。 现实世界的存储,我们使用的工具和建模。每种数据结…...

    2024/5/2 15:59:04
  2. Dubbo 如何成为连接异构微服务体系的最佳服务开发框架

    从编程开发的角度来说,Apache Dubbo (以下简称 Dubbo)首先是一款 RPC 服务框架,它最大的优势在于提供了面向接口代理的服务编程模型,对开发者屏蔽了底层的远程通信细节。同时 Dubbo 也是一款服务治理框架,它为分布式部署的微服务提供了服务发现、流量调度等服务治理解决方…...

    2024/5/2 12:15:36
  3. 车牌识别是啥?

    随着时代的发展,汽车工业的快速发展,汽车的普及率也来越高,随之产生了大量的汽车数据,大数据是在一定时间范围内用常规软件工具进行捕捉、管理和处理的大量数据的集合,需要用新的方式才能更强的决策力、洞察发现力和流程化得海量、高增长和多样化得信息资产。 车牌识别SDK…...

    2024/4/4 20:18:53
  4. 如何读计算机论文

    论文的要求我对硕士论文的基本要求是:(1)论文的主要内容,是叙述一套方法在一个特定场合中的应用。(2)这套方法必须要有所创新或突破,并因而对学术界有所贡献。因此,它或者是解决既有问题的新方法,或者是既有方法的新应用,或者是以一个新的方法开启一整片新的应用领域…...

    2024/3/29 11:42:00
  5. php内存泄漏+内存限制memory_limit

    内存泄漏内存泄漏指的是在程序运行过程中申请了内存,但是在使用完成后没有及时释放的现象, 对于普通运行时间较短的程序来说可能问题不会那么明显,但是对于长时间运行的程序, 比如Web服务器,后台进程等就比较明显了,随着系统运行占用的内存会持续上升, 可能会因为占用内…...

    2024/4/24 6:22:04
  6. 2020Java技术的最新趋势

    当前,计算机网站和应用程序的世界已经变得非常依赖Java,以至于大多数网站和应用程序都需要在我们日常使用的设备上安装Java,以使它们正常运行。从具有互联网功能的手机到巨型高科技超级计算机,Java是最受欢迎的选择,它在超过70亿种设备上运行,并且在全球范围内有900万开发…...

    2024/4/17 2:22:32
  7. vue 源码解析

    这几天看了一些vue 的相关源码,小结一下。 vue工作机制vue 响应式的原理defineProperty class KVue {constructor(options) {this._data = options.data;this.observer(this._data);}observer(value) {if (!value || typeof value !== "object") { return; }Object.…...

    2024/3/29 11:41:57
  8. 吃鸡手游加入武侠元素:《武侠乂》跟《江湖求生》能火吗?

    不知不觉,吃鸡已经火了2、3年了,这几年间,虽然各家厂商都想分一杯羹,不少游戏都加入了吃鸡玩法,但是毫无疑问,腾讯的《和平精英》一家独大,目前仍以超过2000万的用户月活跃度笑到了最后。TC Games电脑玩《和平精英》匹配手机明年,吃鸡迎来全新玩法,不再是单纯的FPS射击…...

    2024/3/29 11:41:56
  9. hive性能优化

    一、Fetch抓取 1、理论分析 Fetch抓取是指,Hive中对某些情况的查询可以不必使用MapReduce计算。例如:SELECT * FROM employees;在这种情况下,Hive可以简单地读取employee对应的存储目录下的文件,然后输出查询结果到控制台。 在hive-default.xml.template文件中hive.fetch.t…...

    2024/4/1 16:08:32
  10. MAC下最好用的抓包工具--charles简单操作教程

    一、Charles介绍 给大家推荐一款在mac上我觉得很好用的抓包工具,再过去的半年中给我很大帮助,在工作学习中使用很方便。那么什情况下我们会需要使用抓包工具呢,比如我想查看一个接口请求的参数、返回值,还有移动设备上的http请求、https请求,有了charles一下搞定,妈妈再也…...

    2024/4/26 2:19:34
  11. 截取微信公众号的视频

    微信点开推文-->按红圈把复制推文地址打开浏览器---》访问刚复制的地址--》按键盘的f12打开开发者模式--》跳转到Network菜单--》点击播放你要截取的视频---》找到 Type 为 media的哪一行再哪一行上面右键--》选择Copy link address复制连接最候打开迅雷--》复制下载的连接...

    2024/3/29 11:41:53
  12. 反向传播

    说明 学习深度学习的过程中,遇到了一个用例子讲解反向传播算法的博文,简单粗暴容易理解,很适合我这种小白,所以打算翻译一下分享,英文水平有限,翻译不对的地方请告知。原文地址在这。下面是译文。 背景 反向传播在神经网络的训练中是一种经常被用到的算法。关于反向传播算…...

    2024/3/29 11:41:53
  13. leetcode155. 最小栈

    设计一个支持 push,pop,top 操作,并能在常数时间内检索到最小元素的栈。push(x) -- 将元素 x 推入栈中。 pop() -- 删除栈顶的元素。 top() -- 获取栈顶元素。 getMin() -- 检索栈中的最小元素。 示例:MinStack minStack = new MinStack(); minStack.push(-2); minStack.pus…...

    2024/3/29 11:41:51
  14. 011——C#创建ecxel文件(附教程)

    (一)参考文献:[C#]创建表格(.xlsx)的典型方法 (二)视频教程:https://v.qq.com/x/page/t30068qfex5.html (三)下载地址:https://download.csdn.net/download/xiaoguoge11/11838954private void button1_Click(object sender, EventArgs e){FolderBrowserDialog dialo…...

    2024/3/29 11:41:50
  15. 判断一个数是不是2的整数次幂

    /**** 实现一个方法,来判断一个正整数是否是2的整数次幂*/ public class ISPowerOfTwo {/*** 创建一个中间变量temp 初始值为1,然后进入一个循环,每次循环都让temp和目标函数* 比较,如果相等,则说明目标函数是2的整数次幂,如果不相等,则让temp增大1倍。* 继续循环并进行…...

    2024/4/29 4:43:11
  16. 在无序数组中寻找两个出现奇数次的数

    /*** 一个无序数组里有若干个整数,只有2个整数出现了奇数次,如何找到这2个出现奇数次的整数* 解法:把2个出现奇数次的数命名为A和B,那么遍历整个数字进行异或,那么最终的异或* 结果就是A和B的异或结果。在这个结果中,至少有一位会是1(如果都是0,则说明A和B相同* ,则和…...

    2024/3/29 8:09:46
  17. java8 lambda表达式对集合的处理

    筛选系列 //从数据库查询出的数据 List<ClassImagePraise> pList = classImagePraiseService.list(lambdaQueryWrapperTow); //把该集合里面每个对象的name筛选出来 List<String> name= list.stream().map(p -> p.getName()).collect(Collectors.toList()); //把…...

    2024/4/8 6:01:48
  18. 2019-12-23

    有人收徒弟吗...

    2024/3/29 8:09:46
  19. 多核快速编译模板

    cpu_cores=`cat /proc/cpuinfo | grep "processor" | wc -l` if [ ${cpu_cores} -le 8 ] ; thenLICHEE_JLEVEL=${cpu_cores} elseLICHEE_JLEVEL=`expr ${cpu_cores} / 2` fimake -j${LICHEE_JLEVEL}...

    2024/3/29 8:09:44
  20. 智能商贸系统09-采购订单

    1、准备数据 完成下面几个类的基本CRUD,具体的页面后面完成systemdictionarytype:数据字典类型 systemdictionarydetail:数据字典明细 Supplier:供应商 Product:产品2、采购订单分析 拿到数据库中的表,主要从下面3点进行分析每个字段的含义 这个字段是否可以为null 这个字段…...

    2024/4/26 6:52:32

最新文章

  1. django.db.utils.NotSupportedError: MySQL 8 or later is required (found 5.7.26).

    环境:django 4.11 mysql 5.7 python 3.12.1 时间:20240429 说明:版本不兼容,最初使用注释源码,但是感觉这种处理很低端,所以有了这篇小作文 解决方法一: 1 找到文件:aca\Lib\site-packages\django\db\backends\base\base.py 注释第239行, 即:self.check_database_versio…...

    2024/5/2 17:30:49
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. 腾讯云云原生数据库TDSQL-C mysql 以及项目怎么接入

    要接入腾讯云的云原生数据库TDSQL-C的MySQL版本&#xff0c;并将它用于你的项目中&#xff0c;你需要按照以下步骤进行&#xff1a; 创建TDSQL-C的MySQL数据库实例&#xff1a; 登录腾讯云控制台。在产品搜索框中搜索TDSQL-C&#xff0c;然后选择它。在TDSQL-C的产品页面上&…...

    2024/4/30 7:40:39
  4. ASP.NET Core 标识(Identity)框架系列(一):如何使用 ASP.NET Core 标识(Identity)框架创建用户和角色?

    前言 ASP.NET Core 内置的标识&#xff08;identity&#xff09;框架&#xff0c;采用的是 RBAC&#xff08;role-based access control&#xff0c;基于角色的访问控制&#xff09;策略&#xff0c;是一个用于管理用户身份验证、授权和安全性的框架。 它提供了一套工具和库&…...

    2024/5/1 13:12:26
  5. OpenHarmony开发-连接开发板调试应用

    在 OpenHarmony 开发过程中&#xff0c;连接开发板进行应用调试是一个关键步骤&#xff0c;只有在真实的硬件环境下&#xff0c;我们才能测试出应用更多的潜在问题&#xff0c;以便后续我们进行优化。本文详细介绍了连接开发板调试 OpenHarmony 应用的操作步骤。 首先&#xf…...

    2024/5/1 13:12:16
  6. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/1 17:30:59
  7. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/5/2 16:16:39
  8. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/4/29 2:29:43
  9. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/5/2 9:28:15
  10. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/4/27 17:58:04
  11. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/4/27 14:22:49
  12. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/4/28 1:28:33
  13. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/4/30 9:43:09
  14. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/4/27 17:59:30
  15. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/5/2 15:04:34
  16. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/4/28 1:34:08
  17. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/4/26 19:03:37
  18. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/4/29 20:46:55
  19. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/4/30 22:21:04
  20. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/1 4:32:01
  21. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/4/27 23:24:42
  22. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/4/28 5:48:52
  23. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/4/30 9:42:22
  24. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/5/2 9:07:46
  25. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/4/30 9:42:49
  26. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  27. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  28. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  29. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  30. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  31. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  32. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  33. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  34. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  35. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  36. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  37. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  38. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  39. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  40. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  41. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  42. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  43. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  44. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  45. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57