大数据Hadoop学习之——TF-IDF算法实现
一、算法说明
1、词频TF:是指给定词语在给定文件中出现的次数,一般会做归一化,即除以文件的总词数(注意是分词数,不是字数)。
TF=词在文章出现次数 / 文章的总词数
2、逆向文件频率IDF:普遍重要性度量,由文件总数除以包含该词的文件的数目,再对商取对数。
IDF=log(文件总数 / 包含目标词的文件个数)
3、各个分词占文件的权重:TF-DF = TF * IDF
二、MapReduce分析
MapReduce程序的输入的数据集是多条文件id对应文件内容,MapReduce需要分以下几步工作:
统计文件总数;
对每个文件进行分词,可以用IKSegmenter进行分词,需要引入相关jar包;
以及分词后每个词在各文件中出现的次数,即词频TF;
对词频做归一化,并且统计每个词有出现在文件中的文件数目;
计算IDF
最后计算TF-IDF
1、2、3可以放在一个MapReduce中完成;4需要放在一个MapReduce中完成;5、6可以放在一个MapReduce中完成。
三、MapReduce实现
测试数据
2259080 当年一曲《相思引》惊艳到不行,一段采薇,从去年听到今朝
2614152 莫名的心酸,多情或许只是女子才会犯的错[流感]
2733982 汉字里墨香温存的一笔一划,世代传承的表达
3029272 必须用清淡点的歌把小苹果的旋律从脑海里尽快抹去[撇嘴]
3193581 深夜听着这首歌看书,不能更美~
3247506 无声中 折伞 你背影零落,回忆青涩泼墨,缘分在纸上太薄,我以为 烟雨只为情留,这场雨 就能下到白头,可是远山云悠悠 各自去留,我们已回不到 从前时候,我以为 山水只为你秀,这一路 就能走到白头,隔世的你挥挥手,月光已旧 葬了谁的温柔,谁的愁。
3304550 梦醒后深爱已碎了心魂,天涯海角为你一骑绝尘,颠倒乾坤 血染白裳,风沙湮没参商永隔的泪痕,一念执迷为你烽火连城,换你心疼 斩不断,重来回首已三生,踏破千山挥剑如神,恩怨纠缠不分,惊鸿照影念你情真,一曲离歌倾城。
3419874 为什么不红呢[拜]
3482756 唉!这么多年了,虽然你不再唱了,但你的声音却在互联网上永久流传...估计楼上的没几个知道,心然完全是古风流派开山鼻祖...!
3559646 我们的口号是 岁月随心 终会淡然[大笑]
3565239 《犬夜叉》插曲《穿越时空的思念》[钻石]
3575668 愿初心常在
爬的网抑云的评论,以上只是部分数据。
第一步——处理原始文件
一、mapper通过IKSegmenter分词器对文件进行分词,输出以下三种数据:
1、word_id 1,文件分的每个词加文件id对应一条记录
2、id 1,每个文件id对应一条记录
3、count 1,每个文件分的一个词对应一条记录
public class HotCommentMapper extends Mapper<Text, Text, Text, IntWritable> {private final Text wordKey = new Text();public static final Text counter = new Text("count");private final IntWritable one = new IntWritable(1);@Overrideprotected void map(Text key, Text value, Context context) throws IOException, InterruptedException {//样本数据:5824431 我大剑三不负基三盛名,听的我都醉了//计算词频IFStringReader sr = new StringReader(value.toString());IKSegmenter ikSegmenter = new IKSegmenter(sr, true);Lexeme lexeme;while ((lexeme = ikSegmenter.next()) != null) {String word = lexeme.getLexemeText();wordKey.set(word + "_" + key);//输出每条中各词计数context.write(wordKey, one);//输出每条热评的分词的总个数context.write(key, one);}//输出第一类数据到reduce统计热评总数context.write(counter, one);}
}
这里用到了IKSegmenter来分词,需要引用对应依赖
<!-- ik分词器 -->
<dependency><groupId>com.janeluo</groupId><artifactId>ikanalyzer</artifactId><version>2012_u6</version>
</dependency>
二、分区器将数据分为两类:
1、word_id 1和word 1分为一类数据
2、count 1分为一类
/*** 注意,这里集成HashPartitioner,可以复用它的hash分区*/
public class HotCommentPartitioner extends HashPartitioner<Text, IntWritable> {@Overridepublic int getPartition(Text key, IntWritable value, int partitonNum) {if (HotCommentMapper.counter.equals(key)) {//第四个分区统计热评总条数和每条评论的总分词数return 3;} else {//其他三个分区计算各个热评总词数以及词频,利用hash取模计算return super.getPartition(key, value, partitonNum - 1);}}
}
注意,这里在提交job时要设置分区数为4。
//设置4个reduce task,即4个分区
job.setNumReduceTasks(4);
三、reducer统计数据:
1、每个词在每个文件出现的次数(一个词对应一个文件一条记录,计数为1)和每个文件分了多少词
2、总的文件数
/*** 输出统计结果。* 因为前面已经通过分区映射,所以热评总条数的结果在part-r-00003中,每条热评统计词数和词频保存在其他三个文件中*/
public class HotCommentReducer extends Reducer<Text, IntWritable, Text, IntWritable> {@Overrideprotected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {//reduce原语:同一个分区的数据在一个reducer task中执行,执行结果写在同一个文件汇总;相同key的数据作为一组调用一次reduce方法int count = 0;for (IntWritable value : values) {count += 1;}context.write(key, new IntWritable(count));}
}
四、数据结果数据集,四个分区就会有四个结果文件
part-r-00000、part-r-00001和part-r-00002保存两类结果数据
1、分词统计词数数据
2、每个词有出现在文件中的文件的数据,一个文件一条记录
结果集数据格式如下
路_10001814 0.024390243902439025
花开_10001814 0.024390243902439025
其实_10001814 0.024390243902439025
花_10001814 0.024390243902439025
1147863561 8
1152817034 43
1154420935 6
11569089 16
1157136429 19
彼岸花_10001814 0.04878048780487805
却_10001814 0.024390243902439025
1167186188 14
我们_10001814 0.024390243902439025
不得_10001814 0.024390243902439025
错_10001814 0.024390243902439025
1154420935 6
就像_10001814 0.024390243902439025
11867253 73
11年_57467843 1
11张_1267959822 1
11日_69687368 1
1208473319 15
12087800 9
1210328462 1
独自_10001814 0.024390243902439025
来了_10001814 0.04878048780487805
了_10001814 0.024390243902439025
念_10001814 0.024390243902439025
我_10001814 0.04878048780487805
part-r-00003保存总文件数
count 4340.0
第二步——对词频TF做归一化
一、输入结果集为第一步的所有结果集,即四个结果集中的所有数据,输入数据格式如下:
就像_10001814 0.024390243902439025
11867253 73
11年_57467843 1
11张_1267959822 1
11日_69687368 1
1208473319 15
12087800 9
1210328462 1
独自_10001814 0.024390243902439025
来了_10001814 0.04878048780487805
count 4340.0
二、mapper将数据映射成三种数据
1、词在文件中出现的次数
2、文件总个数count
3、各个词出现的文件的个数
前面两种数据都是输入的原数据,直接输出就可以,第三类数据需要设置标志
/*** map输出以下三种数据:* 原数据* 1、词在文件中出现的次数* 2、文件总个数count* 新数据* 3、各个词出现的文件的个数*/
public class HotComment2Mapper extends Mapper<Text, Text, Text, IntWritable> {private final Text word = new Text();private final IntWritable one = new IntWritable(1);@Overrideprotected void map(Text key, Text value, Context context) throws IOException, InterruptedException {//数据样本//台词_40270056 1//10247087 48FileSplit fs = (FileSplit) context.getInputSplit();if (!fs.getPath().getName().contains("part-r-00003")) {//part-r-00003的数据不处理,一个分区对应一个mapper taskStringTokenizer st = new StringTokenizer(key.toString(), "_");//文件总分词数和分词计数直接输出one.set(Integer.parseInt(value.toString()));context.write(key, one);if (st.countTokens() > 1) {word.set(st.nextToken());//设置value为0,用于后面分区作为区分条件one.set(0);//输出词出现的文件的个数context.write(word, one);}} else {//直接输出原始文件总数统计数据one.set(Integer.parseInt(value.toString()));context.write(key, one);}}
}
三、分区器将数据分成三类,输出到不同结果文件:
1、count,文件总数,就一条记录,放在3分区
2、词在多少个文件出现的计数,放在4分区
3、每个文件分的词数以及原始词在文件中出现的词数两种数据,放在其他3个分区
public class HotComment2Partitioner extends Partitioner<Text, IntWritable> {@Overridepublic int getPartition(Text key, IntWritable value, int numReduceTasks) {if (HotCommentMapper.counter.equals(key)) {//第四个分区统计热评总条数和每条评论的总分词数return 3;} else if (0 == value.get()) {//词对应出现的文件的个数的数据放在5个分区return 4;} else {StringTokenizer sza = new StringTokenizer(key.toString(), "_");String id = "";//map输出的第一类数据有两种形态while (sza.hasMoreTokens()) {//分割后取最后一个,肯定是idid = sza.nextToken();}//文件id对剩余分区数取模,保证同一个文件的数据再同一分区return Integer.parseInt(id) % (numReduceTasks - 2);}}
}
注意!!!在客户端提交job事要设置分区数为5。
四、排序比较器,主要针对第3类数据
1、相同文件id的记录排在一起
2、id相同的文件的分词数的记录放在最前面
/*** 自定义排序比较器,将文件的分词数排在第一个*/
public class HotComment2Comparator extends WritableComparator {public HotComment2Comparator() {super(Text.class, true);}@Overridepublic int compare(WritableComparable a, WritableComparable b) {int i = compareId(a, b);if (i == 0) {//如果是同一个文件,id-count的记录放在前面if (a.toString().contains("_")) {return 1;} else if (b.toString().contains("_")) {return -1;}}return i;}public static int compareId(WritableComparable a, WritableComparable b) {StringTokenizer sza = new StringTokenizer(a.toString(), "_");StringTokenizer szb = new StringTokenizer(b.toString(), "_");String aId = "", bId = "";while (sza.hasMoreTokens()) {aId = sza.nextToken();}while (szb.hasMoreTokens()) {bId = szb.nextToken();}return aId.compareTo(bId);}
}
五、分组比较器
1、第一类数据,相同的词放在一组
2、第三类数据,相同的文件id放在一组
/*** 自定义分组比较器,让同一文件的数据分到一组*/
public class HotCommentGroup2Comparator extends WritableComparator {public HotCommentGroup2Comparator() {super(Text.class, true);}@Overridepublic int compare(WritableComparable a, WritableComparable b) {return HotComment2Comparator.compareId(a, b);}
}
六、reduce对数据进行统计
1、第一类数据count直接输出
2、第二类数据统计出现的文件数输出
3、第三类数据,先取第一个文件分词数,然后每个词计算归一化TF输出
public class HotComment2Reducer extends Reducer<Text, IntWritable, Text, DoubleWritable> {private final DoubleWritable rval = new DoubleWritable();@Overrideprotected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {// 输入数据样本,有三类数据:// 第一组// 10247087 48// 能_10247087 1// 相逢_10247087 1// 第二组//能 0//能 0//第三组//count 4340if (HotCommentMapper.counter.equals(key)) {rval.set(values.iterator().next().get());context.write(key, rval);} else {int fileWordCount = 0;boolean flag = true;double countFile = 0;for (IntWritable value : values) {if (0 == value.get()) {//统计出现某词的文件个数countFile += 1;} else if (flag) {//获取文件的总分词数fileWordCount = value.get();flag = false;} else {//对if做归一化double wordCount = value.get();//这里必须用double除才能获得double,从而保留小数rval.set(wordCount / fileWordCount);context.write(key, rval);}}if (countFile > 0) {rval.set(countFile);context.write(key, rval);}}}
}
七、输出结果数据集,五个分区会有五个结果文件
part-r-00000、part-r-00001和part-r-00002保存做了归一化之后的词频TF值数据,数据格式如下
唱_10010971 0.06666666666666667
you_10010971 0.06666666666666667
键_10010971 0.06666666666666667
好_10010971 0.06666666666666667
开口_10010971 0.06666666666666667
跪_10010971 0.06666666666666667
声音_10010971 0.06666666666666667
就按_10010971 0.06666666666666667
want_10010971 0.06666666666666667
下了_10010971 0.06666666666666667
好比_10010971 0.06666666666666667
一开_10010971 0.06666666666666667
的_10010971 0.06666666666666667
i_10010971 0.06666666666666667
就_10010971 0.06666666666666667
part-r-00003保存文件总数
count 4340.0
part-r-00004保存累加后的各分词出现在的文件的个数的数据,数据格式如下
看不见 3.0
看不起 1.0
看中 1.0
看么 1.0
看书 3.0
看了 69.0
看什么 1.0
看他 4.0
看似 1.0
看你 11.0
第三步——计算TF-IDF
第三步可以分两小步:先计算逆向文件频率IDF,让后计算TF * IDF得到TF-IDF,因为TF前面已经计算出来的了。但是计算IDF用到part-r-00003和part-r-00004数据。所以在mapper的setUp中要加载这两个文件的数据。注意!!!这一步的计算是在mapper中完成的!所以需要再客户端设置缓存文件。
一、客户端主要代码
public static void step3() {job.setJobName("hot comment-3");//当客户端在windows启动,程序在liunx运行时,该参数需要设置为true,做格式兼容,默认fasejob.getConfiguration().set("mapreduce.app-submission.cross-platform", "true");//运行平台,这个可以不用设置,默认为yarnconf.set("mapreduce.framework.name", "local");//集群分布式启动,因为part-r-00003和part-r-00004两个文件数据需要移动到mapper的计算节点job.setJar("G:\\bigdata\\hadoop-test\\target\\hadoop-test-1.0-SNAPSHOT.jar");//把文件总数加载到job,任务运行时会把该文件推送到计算节点的服务器上job.addCacheFile(new Path("/test/hot/output1/" + TOTAL_FILE).toUri());//把词对应出现的文件数数据加载到jobjob.addCacheFile(new Path("/test/hot/output1/" + WORD_COUNT_FILE).toUri());job.setInputFormatClass(KeyValueTextInputFormat.class);job.setMapperClass(HotComment3Mapper.class);job.setMapOutputKeyClass(Text.class);job.setMapOutputValueClass(Text.class);job.setSortComparatorClass(HotComment3Comparator.class);job.setGroupingComparatorClass(HotCommentGroup3Comparator.class);job.setReducerClass(HotComment3Reducer.class);}
二、mapper加载文件数据,计算TF-IDF
1、在setUp中加载推送节点本地的part-r-00003和part-r-00004文本里的数据
2、计算IDF
3、计算TF-IDF=TF*IDF
public class HotComment3Mapper extends Mapper<Text, Text, Text, Text> {private double fileTotal = 0;private Map<String, Double> wordFileCount = new HashMap<>();private final Text mkey = new Text();private final Text mval = new Text();private final NumberFormat nf = NumberFormat.getInstance();@Overrideprotected void setup(Context context) throws IOException, InterruptedException {//设置double取5位小数nf.setMaximumFractionDigits(5);//从各节点服务器本地读取part-r-00003和part-r-00004文件URI[] uris = context.getCacheFiles();if (uris != null && uris.length > 0) {for (URI uri :uris) {String file = uri.getPath();boolean isFileTotal;if (file.endsWith(HotCommentDriver.TOTAL_FILE)) {isFileTotal = true;} else if (file.endsWith(HotCommentDriver.WORD_COUNT_FILE)) {isFileTotal = false;} else {continue;}//本地跑需要配置本地文件路径file = "G:\\学习\\大数据\\hadoop\\项目\\tf-idf" + file.substring(5);BufferedReader reader = new BufferedReader(new FileReader(file));String line;try {if (isFileTotal) {line = reader.readLine();StringTokenizer st = new StringTokenizer(line, "\t");st.nextToken();fileTotal = Double.parseDouble(st.nextToken());} else {while (reader.ready()) {line = reader.readLine();StringTokenizer st = new StringTokenizer(line, "\t");wordFileCount.put(st.nextToken(), Double.parseDouble(st.nextToken()));}}} catch (IOException e) {e.printStackTrace();} catch (NumberFormatException e) {e.printStackTrace();} finally {reader.close();}}}}@Overrideprotected void map(Text key, Text value, Context context) throws IOException, InterruptedException {//输入样本数据//好听_10033640 0.14285714285714285FileSplit fs = (FileSplit) context.getInputSplit();String filename = fs.getPath().getName();if (filename.contains(HotCommentDriver.TOTAL_FILE) || filename.contains(HotCommentDriver.WORD_COUNT_FILE)) {return;}double tf = Double.parseDouble(value.toString());StringTokenizer st = new StringTokenizer(key.toString(), "_");String word = st.nextToken();String id = "";while (st.hasMoreTokens()) {id = st.nextToken();}Double wfc = wordFileCount.get(word);if (wfc == null) {wfc = 1.0;}//计算idfdouble idf = Math.log(fileTotal/wfc);double tf_idf= tf * idf;mkey.set(id + "_" + nf.format(tf_idf));mval.set(word);context.write(mkey, mval);}
}
三、排序比较器,先根据文件id排序,同id内按TF-IDF值倒序
public class HotComment3Comparator extends WritableComparator {public HotComment3Comparator() {super(Text.class, true);}@Overridepublic int compare(WritableComparable a, WritableComparable b) {StringTokenizer sta = new StringTokenizer(a.toString(), "_");StringTokenizer stb = new StringTokenizer(b.toString(), "_");int i = sta.nextToken().compareTo(stb.nextToken().toString());if (i == 0) {double ad = Double.parseDouble(sta.nextToken());double ab = Double.parseDouble(stb.nextToken());return Double.compare(ab, ad);}return i;}
}
四、组比较器,自定义根据文件id分组
public class HotCommentGroup3Comparator extends WritableComparator {public HotCommentGroup3Comparator() {super(Text.class, true);}@Overridepublic int compare(WritableComparable a, WritableComparable b) {StringTokenizer sta = new StringTokenizer(a.toString(), "_");StringTokenizer stb = new StringTokenizer(b.toString(), "_");return sta.nextToken().compareTo(stb.nextToken());}
}
五、reducer统计每个文件的所有分词
public class HotComment3Reducer extends Reducer<Text, Text, Text, Text> {@Overrideprotected void reduce(Text key, Iterable<Text> values, Context context) throws IOException, InterruptedException {//输入数据样例://7103300_0.03846 风月String id = "";StringBuffer sb = new StringBuffer();for (Text value : values) {StringTokenizer st = new StringTokenizer(key.toString(), "_");id = st.nextToken();sb.append(value.toString()).append(":").append(st.nextToken()).append("\t");}context.write(new Text(id), new Text(sb.toString()));}
}
六、输出最终结果,数据格式如下
315556648 版权:0.3883 购买:0.1551 jw15:0.1551 发行:0.1551 收录于:0.1551 歌曲:0.1448 熟知:0.14227 当中:0.14227 商业:0.13476 五音:0.13476 16年:0.12943 喜爱:0.1253 许多人:0.1253 聆:0.1253 官方:0.1253 宣传:0.11907 问题:0.11907 尊重:0.11441 做过:0.11441 剪辑:0.11246 任何:0.1107 背景:0.10623 天涯:0.10376 收:0.10264 创作:0.10158 原创:0.10158 不在:0.10058 专辑:0.09704 和:0.09476 明月:0.09407 支持:0.09151 太多:0.09092 刀:0.09035 年:0.0898 游戏:0.08381 音:0.07838 下:0.0778 这是:0.07039 曲:0.0702 天:0.06554 因为:0.06195 被:0.06089 而:0.06 为:0.05755 首歌:0.04929 在:0.04334 这:0.03559 是:0.02985 的:0.01892
315600154 蛋卷:0.38119 两首歌:0.20499 支持:0.1392 发:0.13347 抽奖:0.11797 安靖:0.11797 会受:0.11797 咯:0.11797 奖品:0.11797 网易:0.10856 波及:0.1082 这也:0.10249 复杂:0.10249 云:0.09882 5:0.09844 经过:0.09273 羽:0.09273 生了:0.09273 抽:0.09273 小伙伴:0.09273 ps:0.09056 同意:0.09056 上传:0.09056 算是:0.08868 来吧:0.08868 没有:0.08813 赶紧:0.08702 并没有:0.08554 本人:0.08419 选择:0.08419 原因:0.08419 婶:0.08419 怎么样:0.08297 珍惜:0.08184 下载:0.0808 事情:0.07892 并不是:0.0765 然而:0.07509 不管:0.07263 好好:0.07208 这些:0.0696 应该:0.0696 可是:0.06054 下:0.05917 所以:0.05643 大家:0.05539 到了:0.05443 这:0.05414 已经:0.05383 吧:0.05089 但是:0.05066 被:0.04631 还是:0.04348 很:0.04259 不:0.03456 他:0.03246 了:0.02335 的:0.02158 我:0.01443
315923049 识:0.69893 阙:0.65839 幸:0.61784 昭:0.6073 一首:0.44438 诗:0.43866 红:0.42981 音:0.42325 愿:0.39097 听:0.26073
七、完整代码及测试数据详见码云:hadoop-test传送门
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
相关文章
- [护网杯 2018]easy_tornado 1(STTI模板注入+Tornado的secret_cookie)
本文为个人刷题记录,不记录完整步骤,主要记录比较有感触的知识点 SSTI注入 参考:SSTI完全学习 SSTI就是服务器端模板注入(Server-Side Template Injection),也给出了一个注入的概念。 常见的注入有:SQL 注入,XSS 注入,XPATH 注入,XML 注入,代码注入,命令注入等等。sq…...
2024/4/22 15:21:27 - 二叉树的创建、查找、插入、遍历
1 二叉树结构struct node{int data; //数据域 int layer; //层次 node* lchild; //指向左子树根结点的指针 node* rchild; //指向右子树根结点的指针 };2 新建结点//新建结点,v为结点权值 node* newNode(int v){node* Node=new node;Node->data=v;Node->lchild=Node…...
2024/4/15 11:21:32 - 【STM32】GPIO详解
00. 目录 文章目录00. 目录01. GPIO简介02. GPIO主要特性03. GPIO功能描述04. I/O引脚复用器和映射05. I/O端口控制寄存器06. I/O端口数据寄存器07. I/O数据位操作08. GPIO锁定机制09. GPIO寄存器描述9.1 GPIO端口模式寄存器 (GPIOx_MODER) (x = A..I)9.2 GPIO端口输出类型寄…...
2024/4/10 2:57:08 - LeetCode初级算法——数组: 删除排序数组中的重复项
解法一:暴力解法 创建一个动态数组list,用contains()方法提取、保存不重复的数字 再将动态数组list的数据取出赋给nums数组,返回list的长度 class Solution {public int removeDuplicates(int[] nums) {if(nums.length == 0) return 0;List<Integer> list = new Array…...
2024/4/12 13:55:51 - Error:collect2:ld returned 1 exit status的其他原因
首先感谢:https://blog.csdn.net/li809735472/article/details/85231950,这里有多个总结,虽然没解决我的问题,但是可能帮到别人,所以引用到这里。 我自己使用vs的Linux插件,直接在Linux服务器编译程序,报错后也网上查找了,都没能解决问题。 所以我自己查看了Linux服务器…...
2024/4/10 12:11:31 - 【LeetCode】从上到下打印二叉树(JavaScript)
题目: 从上到下打印出二叉树的每个节点,同一层的节点按照从左到右的顺序打印。 例如: 给定二叉树: [3,9,20,null,null,15,7], 3 / \ 9 20 / \ 15 7(20的两个子节点) 返回: [3,9,20,15,7] 这种题可以使用广度优先。 使用模拟队列,将这一层的节点放入queue中,再依次取…...
2024/4/18 1:40:37 - 【资金流入流出预测】 数据探索
import pandas as pd import numpy as np import warnings import datetime import seaborn as sns import matplotlib.pyplot as plt warnings.filterwarnings(ignore) %matplotlib inline plt.rcParams[font.sans-serif] = [KaiTi] # 指定默认字体 plt.rcParams[axes.unico…...
2024/4/26 21:03:11 - Python批量爬取ScienceDirect搜索文献索引
批量爬取ScienceDirect搜索文献索引前言相关库分解代码爬取文献编码关键词合并并删除所有RIS文件完整代码代码使用前的注意事项 前言 由于ScienceDirect网站一次性只能导出100份文献的索引,有使用者会一页一页的导出,总共60页的导出效率极低。如果需要多关键词的大批量导出文…...
2024/4/26 18:15:20 - Css 核心样式
三大属性:position属性,display属性,float属性。 ①position 属性控制页面上元素间的位置关系。 ②display 属性控制页面元素是否显示或者是堆叠还是并排显示。 ③float 属性提供控制方法。通过float这种控制方法,可以实现多栏布局,导航菜单等等。 position属性是干嘛用的…...
2024/4/18 13:24:16 - PrDiMP_resnet18训练记录
run_training.py dimp prdimp18 结果保存在result_model_prdimpTraining: dimp prdimp18 [0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, …...
2024/4/26 21:42:36 - 分享Razor模板引擎生成内容并导出Word 填坑记录
起因 需求是这样的,有一种协议需要生成,协议的模板是可配置的,在生成过程中,模板中的内容可以根据约定的标记进行替换(就像mvc的razor模板一样)。生成后的内容还需要导出成word或pdf。 常见的使用场景比如租赁协议生成,邮件内容模板生成等等,不要傻傻的hard-code像‘#n…...
2024/4/27 15:15:43 - leetcode55
有一个花坛,一部分种了花,另一部分没有,花不能种在相邻的地块上,给定一个花坛,和一个数n,能否在不打破种植规则的情况下种如n朵花...
2024/4/10 12:11:28 - Exploring InnoDB page management with innodb_ruby(5.用innodb_ruby分析InnoDB的页管理)
本文引用的是2014年2月3日的innodb_ruby 0.8.8版本。 在《学习InnoDB:核心之旅》中,我在innodb_ruby项目中引入了一个新的库和命令行工具。稍后,在对innodb_ruby的介绍中,我将介绍innodb_space命令行工具的安装和一些快速演示。 在我的上一篇文章《InnoDB空间文件中的页面管…...
2024/4/27 15:16:33 - 1480. 一维数组的动态和
文|MESeraph class Solution { public:vector<int> runningSum(vector<int>& nums) {vector<int>::iterator itr;int sum=0;for(itr=nums.begin(); itr!=nums.end(); itr++){sum += *itr;*itr = sum;}return nums;} };...
2024/4/19 14:55:05 - 分红险是骗局?搞清楚这四个问题,再下手也不迟
相信大家都看过朋友圈里的保险公司“开门红”广告,无论是朋友圈文案,还是贴出来的盈利演示图,都特别吸引人。有些声称只需交几十万,若干年后,账户数字就轻松变成百万级别,坐着就能钱生钱,五位数存款分分钟变成六位数,甚至七位数。一旦有人兴冲冲地购买,很快就要失望了…...
2024/4/25 5:01:07 - StringUtils中 isNotEmpty 和isNotBlank的区别
StringUtils中 isNotEmpty 和isNotBlank的区别参考 isNotEmpty将空格也作为参数,isNotBlank则排除空格参数 参考 StringUtils方法的操作对象是java.lang.String类型的对象,是JDK提供的String类型操作方法的补充,并且是null安全的(即如果输入参数String为null则不会抛出NullP…...
2024/4/26 14:36:55 - pyhton基础总结(一)数据类型和变量
数据类型 Python中主要的数据类型有以下几种: 整数: 和数学中的写法相同,分为正整数和负整数。 整数有两种除法,一种除法是/,结果为浮点数。另一种为//,称为地板除,两个整数的除法仍然是整数。%为取模,也就是取余数。 浮点数: 相当于数学中的小数,因为常用科学计数法…...
2024/4/11 22:36:52 - 七、selenium07 等待处理
为了保证脚本的稳定性,有时候需要引入等待时间,等待页面加载元素 后再进行操作,selenium提供三种等待时间设置方式。1、sleep():固定休眠时间设置,python的time包里提供了休眠方法sleep, 导入包后就能使用; sleep()方法以秒为单位,如果超时设置小于1秒,可以使用小数 im…...
2024/4/26 18:20:02 - 前端基础表单标签和CSS基础
一.表单标签 1.表单标签:form是一个容器标签,本身单独用没有意义,一般需要结合表单相关的标签(input、select、textarea)来使用。 它可以对表单标签中所有用户信息收集相关的标签的内容进行整体的重置和提交 action属性 - 后端数据接口的地址 method属性 - 请求方式(…...
2024/4/21 17:17:44 - Java的静态代码块
看如下的代码输出结果: public class C {static{System.out.println("c");}public C(){System.out.println("cc");} } public class D extends C{static{System.out.println("d");}public D(){System.out.println("dd");} } class F{…...
2024/4/19 20:15:27
最新文章
- 配置jupyter的启动路径
jupyter的安装参考:python环境安装jupyter-CSDN博客 1,背景 继上一篇python环境安装jupyter,里面有一个问题,就是启动jupyter(命令jupyter notebook)之后,页面默认显示的是启动时候的路径。 …...
2024/4/27 15:39:32 - 梯度消失和梯度爆炸的一些处理方法
在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言,在此感激不尽。 权重和梯度的更新公式如下: w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...
2024/3/20 10:50:27 - Topaz Video AI for Mac v5.0.0激活版 视频画质增强软件
Topaz Video AI for Mac是一款功能强大的视频处理软件,专为Mac用户设计,旨在通过人工智能技术为视频编辑和增强提供卓越的功能。这款软件利用先进的算法和深度学习技术,能够自动识别和分析视频中的各个元素,并进行智能修复和增强&…...
2024/4/27 12:49:51 - ChatGPT 赚钱初学者指南(上)
原文:The Beginner’s Guide to Earning Money Online with ChatGPT 译者:飞龙 协议:CC BY-NC-SA 4.0 第一章:理解基础知识 什么是 ChatGPT? 在人工智能与人类对话相遇的数字织锦中,ChatGPT 作为一个突出…...
2024/4/27 11:05:12 - 416. 分割等和子集问题(动态规划)
题目 题解 class Solution:def canPartition(self, nums: List[int]) -> bool:# badcaseif not nums:return True# 不能被2整除if sum(nums) % 2 ! 0:return False# 状态定义:dp[i][j]表示当背包容量为j,用前i个物品是否正好可以将背包填满ÿ…...
2024/4/27 1:53:53 - 【Java】ExcelWriter自适应宽度工具类(支持中文)
工具类 import org.apache.poi.ss.usermodel.Cell; import org.apache.poi.ss.usermodel.CellType; import org.apache.poi.ss.usermodel.Row; import org.apache.poi.ss.usermodel.Sheet;/*** Excel工具类** author xiaoming* date 2023/11/17 10:40*/ public class ExcelUti…...
2024/4/27 3:39:11 - Spring cloud负载均衡@LoadBalanced LoadBalancerClient
LoadBalance vs Ribbon 由于Spring cloud2020之后移除了Ribbon,直接使用Spring Cloud LoadBalancer作为客户端负载均衡组件,我们讨论Spring负载均衡以Spring Cloud2020之后版本为主,学习Spring Cloud LoadBalance,暂不讨论Ribbon…...
2024/4/27 12:24:35 - TSINGSEE青犀AI智能分析+视频监控工业园区周界安全防范方案
一、背景需求分析 在工业产业园、化工园或生产制造园区中,周界防范意义重大,对园区的安全起到重要的作用。常规的安防方式是采用人员巡查,人力投入成本大而且效率低。周界一旦被破坏或入侵,会影响园区人员和资产安全,…...
2024/4/27 12:24:46 - VB.net WebBrowser网页元素抓取分析方法
在用WebBrowser编程实现网页操作自动化时,常要分析网页Html,例如网页在加载数据时,常会显示“系统处理中,请稍候..”,我们需要在数据加载完成后才能继续下一步操作,如何抓取这个信息的网页html元素变化&…...
2024/4/27 3:39:08 - 【Objective-C】Objective-C汇总
方法定义 参考:https://www.yiibai.com/objective_c/objective_c_functions.html Objective-C编程语言中方法定义的一般形式如下 - (return_type) method_name:( argumentType1 )argumentName1 joiningArgument2:( argumentType2 )argumentName2 ... joiningArgu…...
2024/4/27 3:39:07 - 【洛谷算法题】P5713-洛谷团队系统【入门2分支结构】
👨💻博客主页:花无缺 欢迎 点赞👍 收藏⭐ 留言📝 加关注✅! 本文由 花无缺 原创 收录于专栏 【洛谷算法题】 文章目录 【洛谷算法题】P5713-洛谷团队系统【入门2分支结构】🌏题目描述🌏输入格…...
2024/4/27 3:39:07 - 【ES6.0】- 扩展运算符(...)
【ES6.0】- 扩展运算符... 文章目录 【ES6.0】- 扩展运算符...一、概述二、拷贝数组对象三、合并操作四、参数传递五、数组去重六、字符串转字符数组七、NodeList转数组八、解构变量九、打印日志十、总结 一、概述 **扩展运算符(...)**允许一个表达式在期望多个参数࿰…...
2024/4/27 12:44:49 - 摩根看好的前智能硬件头部品牌双11交易数据极度异常!——是模式创新还是饮鸩止渴?
文 | 螳螂观察 作者 | 李燃 双11狂欢已落下帷幕,各大品牌纷纷晒出优异的成绩单,摩根士丹利投资的智能硬件头部品牌凯迪仕也不例外。然而有爆料称,在自媒体平台发布霸榜各大榜单喜讯的凯迪仕智能锁,多个平台数据都表现出极度异常…...
2024/4/26 17:59:13 - Go语言常用命令详解(二)
文章目录 前言常用命令go bug示例参数说明 go doc示例参数说明 go env示例 go fix示例 go fmt示例 go generate示例 总结写在最后 前言 接着上一篇继续介绍Go语言的常用命令 常用命令 以下是一些常用的Go命令,这些命令可以帮助您在Go开发中进行编译、测试、运行和…...
2024/4/26 22:35:59 - 用欧拉路径判断图同构推出reverse合法性:1116T4
http://cplusoj.com/d/senior/p/SS231116D 假设我们要把 a a a 变成 b b b,我们在 a i a_i ai 和 a i 1 a_{i1} ai1 之间连边, b b b 同理,则 a a a 能变成 b b b 的充要条件是两图 A , B A,B A,B 同构。 必要性显然࿰…...
2024/4/26 17:00:23 - 【NGINX--1】基础知识
1、在 Debian/Ubuntu 上安装 NGINX 在 Debian 或 Ubuntu 机器上安装 NGINX 开源版。 更新已配置源的软件包信息,并安装一些有助于配置官方 NGINX 软件包仓库的软件包: apt-get update apt install -y curl gnupg2 ca-certificates lsb-release debian-…...
2024/4/27 3:39:03 - Hive默认分割符、存储格式与数据压缩
目录 1、Hive默认分割符2、Hive存储格式3、Hive数据压缩 1、Hive默认分割符 Hive创建表时指定的行受限(ROW FORMAT)配置标准HQL为: ... ROW FORMAT DELIMITED FIELDS TERMINATED BY \u0001 COLLECTION ITEMS TERMINATED BY , MAP KEYS TERMI…...
2024/4/27 13:52:15 - 【论文阅读】MAG:一种用于航天器遥测数据中有效异常检测的新方法
文章目录 摘要1 引言2 问题描述3 拟议框架4 所提出方法的细节A.数据预处理B.变量相关分析C.MAG模型D.异常分数 5 实验A.数据集和性能指标B.实验设置与平台C.结果和比较 6 结论 摘要 异常检测是保证航天器稳定性的关键。在航天器运行过程中,传感器和控制器产生大量周…...
2024/4/27 13:38:13 - --max-old-space-size=8192报错
vue项目运行时,如果经常运行慢,崩溃停止服务,报如下错误 FATAL ERROR: CALL_AND_RETRY_LAST Allocation failed - JavaScript heap out of memory 因为在 Node 中,通过JavaScript使用内存时只能使用部分内存(64位系统&…...
2024/4/27 1:03:20 - 基于深度学习的恶意软件检测
恶意软件是指恶意软件犯罪者用来感染个人计算机或整个组织的网络的软件。 它利用目标系统漏洞,例如可以被劫持的合法软件(例如浏览器或 Web 应用程序插件)中的错误。 恶意软件渗透可能会造成灾难性的后果,包括数据被盗、勒索或网…...
2024/4/27 3:22:12 - JS原型对象prototype
让我简单的为大家介绍一下原型对象prototype吧! 使用原型实现方法共享 1.构造函数通过原型分配的函数是所有对象所 共享的。 2.JavaScript 规定,每一个构造函数都有一个 prototype 属性,指向另一个对象,所以我们也称为原型对象…...
2024/4/26 21:29:56 - C++中只能有一个实例的单例类
C中只能有一个实例的单例类 前面讨论的 President 类很不错,但存在一个缺陷:无法禁止通过实例化多个对象来创建多名总统: President One, Two, Three; 由于复制构造函数是私有的,其中每个对象都是不可复制的,但您的目…...
2024/4/27 3:39:00 - python django 小程序图书借阅源码
开发工具: PyCharm,mysql5.7,微信开发者工具 技术说明: python django html 小程序 功能介绍: 用户端: 登录注册(含授权登录) 首页显示搜索图书,轮播图࿰…...
2024/4/26 23:53:24 - 电子学会C/C++编程等级考试2022年03月(一级)真题解析
C/C++等级考试(1~8级)全部真题・点这里 第1题:双精度浮点数的输入输出 输入一个双精度浮点数,保留8位小数,输出这个浮点数。 时间限制:1000 内存限制:65536输入 只有一行,一个双精度浮点数。输出 一行,保留8位小数的浮点数。样例输入 3.1415926535798932样例输出 3.1…...
2024/4/26 9:43:45 - 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...
解析如下:1、长按电脑电源键直至关机,然后再按一次电源健重启电脑,按F8健进入安全模式2、安全模式下进入Windows系统桌面后,按住“winR”打开运行窗口,输入“services.msc”打开服务设置3、在服务界面,选中…...
2022/11/19 21:17:18 - 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。
%读入6幅图像(每一幅图像的大小是564*564) f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...
2022/11/19 21:17:16 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...
win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面,在等待界面中我们需要等待操作结束才能关机,虽然这比较麻烦,但是对系统进行配置和升级…...
2022/11/19 21:17:15 - 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...
有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows,请勿关闭计算机”的提示,要过很久才能进入系统,有的用户甚至几个小时也无法进入,下面就教大家这个问题的解决方法。第一种方法:我们首先在左下角的“开始…...
2022/11/19 21:17:14 - win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...
置信有很多用户都跟小编一样遇到过这样的问题,电脑时发现开机屏幕显现“正在配置Windows Update,请勿关机”(如下图所示),而且还需求等大约5分钟才干进入系统。这是怎样回事呢?一切都是正常操作的,为什么开时机呈现“正…...
2022/11/19 21:17:13 - 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...
Win7系统开机启动时总是出现“配置Windows请勿关机”的提示,没过几秒后电脑自动重启,每次开机都这样无法进入系统,此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一:开机按下F8,在出现的Windows高级启动选…...
2022/11/19 21:17:12 - 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...
有不少windows10系统用户反映说碰到这样一个情况,就是电脑提示正在准备windows请勿关闭计算机,碰到这样的问题该怎么解决呢,现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法:1、2、依次…...
2022/11/19 21:17:11 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...
今天和大家分享一下win7系统重装了Win7旗舰版系统后,每次关机的时候桌面上都会显示一个“配置Windows Update的界面,提示请勿关闭计算机”,每次停留好几分钟才能正常关机,导致什么情况引起的呢?出现配置Windows Update…...
2022/11/19 21:17:10 - 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...
只能是等着,别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚,只能是考虑备份数据后重装系统了。解决来方案一:管理员运行cmd:net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...
2022/11/19 21:17:09 - 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?
原标题:电脑提示“配置Windows Update请勿关闭计算机”怎么办?win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢?一般的方…...
2022/11/19 21:17:08 - 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...
关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!关机提示 windows7 正在配…...
2022/11/19 21:17:05 - 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...
钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...
2022/11/19 21:17:05 - 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...
前几天班里有位学生电脑(windows 7系统)出问题了,具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面,长时间没反应,无法进入系统。这个问题原来帮其他同学也解决过,网上搜了不少资料&#x…...
2022/11/19 21:17:04 - 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...
本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法,并在最后教给你1种保护系统安全的好方法,一起来看看!电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中,添加了1个新功能在“磁…...
2022/11/19 21:17:03 - 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...
许多用户在长期不使用电脑的时候,开启电脑发现电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机。。.这要怎么办呢?下面小编就带着大家一起看看吧!如果能够正常进入系统,建议您暂时移…...
2022/11/19 21:17:02 - 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...
配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!配置windows update失败 还原更改 请勿关闭计算机&#x…...
2022/11/19 21:17:01 - 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...
不知道大家有没有遇到过这样的一个问题,就是我们的win7系统在关机的时候,总是喜欢显示“准备配置windows,请勿关机”这样的一个页面,没有什么大碍,但是如果一直等着的话就要两个小时甚至更久都关不了机,非常…...
2022/11/19 21:17:00 - 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...
当电脑出现正在准备配置windows请勿关闭计算机时,一般是您正对windows进行升级,但是这个要是长时间没有反应,我们不能再傻等下去了。可能是电脑出了别的问题了,来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...
2022/11/19 21:16:59 - 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...
我们使用电脑的过程中有时会遇到这种情况,当我们打开电脑之后,发现一直停留在一个界面:“配置Windows Update失败,还原更改请勿关闭计算机”,等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢࿰…...
2022/11/19 21:16:58 - 如何在iPhone上关闭“请勿打扰”
Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...
2022/11/19 21:16:57