参考: http://www.pythontab.com/html/2014/pythonjichu_0121/681.html
参考: http://blog.csdn.net/supercooly/article/details/51046561
参考: http://blog.topspeedsnail.com/archives/8462
python编写断点续传下载软件:
https://www.leavesongs.com/PYTHON/resume-download-from-break-point-tool-by-python.html

Python 模块 requests 爬取图片:https://blog.csdn.net/freeking101/article/details/60769496

 

 

 

Python 下载文件的三种方法

 

当然你也可以利用 ftplib 从ftp站点下载文件。此外 Python 还提供了另外一种方法 requests。

下面来看看三种方法是如何来下载文件的:

 

方法 一 :( 使用 urlopen() 方法 )

urlopen(url[, data[, proxies]]) :创建一个表示远程 url 的类文件对象,然后像本地文件一样操作这个类文件对象来获取远程数据。

  • url 表示远程数据的路径,一般是网址;
  • data 表示以 post 方式提交到 url 的数据(提交数据的两种方式:post 与 get )
  • proxies 用于设置代理。

urlopen 返回 一个类文件对象,它提供了如下方法:

  • read() , readline() , readlines() , fileno() , close() :这些方法的使用方式与文件对象完全一样;
  • info():返回一个 httplib.HTTPMessage 对象,表示远程服务器返回的头信息
  • getcode():返回 Http 状态码。如果是 http 请求,200 表示请求成功完成,404 表示网址未找到;
  • geturl():返回请求的 url;

示例代码 1:

# -*- coding: utf-8 -*-from urllib.request import urlopenresponse = urlopen('https://www.baidu.com/')
print(response.info())     # get header information from remote server
print(response.getcode())  # get status code
print(response.geturl())   # get request url# get all content on url page
html_byte = urlopen('https://www.baidu.com/').read()  
html_str = html_byte.decode('utf-8')
print(html_str)img_url = 'https://img9.doubanio.com/view/celebrity/s_ratio_celebrity/public/p28424.webp'
response = urlopen(img_url)
with open('./img.jpg', 'wb') as f:f.write(response.read())
pass

示例代码 2:

# -*- coding: utf-8 -*-import urllib.request
import urllib.parse
import json"""
利用有道翻译进行在线翻译
"""def translate(word=None):# 目标URLtarget_url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=null"# 用户自定义表单,word 表示的是用户要翻译的内容。这里使用的是dict类型,也可以使用元组列表(已经试过的)。data = dict()data['type'] = 'AUTO'data['i'] = wordsdata['doctype'] = 'json'data['xmlVersion'] = '1.8'data['keyfrom'] = 'fanyi.web'data['ue'] = 'UTF-8'data['action'] = 'FY_BY_CLICKBUTTON'data['typoResult'] = 'true'# 将自定义 data 转换成标准格式data = urllib.parse.urlencode(data).encode('utf-8')# 发送用户请求html = urllib.request.urlopen(target_url, data)# 读取并解码内容rst = html.read().decode("utf-8")rst_dict = json.loads(rst)return rst_dict['translateResult'][0][0]['tgt']passif __name__ == "__main__":print("输入字母q表示退出")while True:words = input("请输入要查询的单词或句子:\n")if words == 'q':breakresult = translate(words)print(f"翻译结果是:{result}")

 

方法 二:( 使用 urlretrieve 方法 )

urlretrieve() 方法直接将远程数据下载到本地。

urlretrieve(url, filename=None, reporthook=None, data=None)

  • url:下载链接地址
  • filename:指定了保存本地路径(如果参数未指定,urllib会生成一个临时文件保存数据。)
  • reporthook:一个回调函数,当连接上服务器、以及相应的数据块传输完毕时会触发该回调,可以利用这个回调函数来显示当前的下载进度。
  • data:指 post 到服务器的数据,该方法返回一个包含两个元素的(filename, headers) 元组,filename 表示保存到本地的路径,header 表示服务器的响应头
  • header:表示服务器的响应头。

示例代码 1:下载并保存图片

# -*- coding: utf-8 -*-from urllib.request import urlretrieveprint("downloading with urllib")
img_url = 'https://img9.doubanio.com/view/celebrity/s_ratio_celebrity/public/p28424.webp'
urlretrieve(img_url, "./img.jpg")

示例代码 2:将 baidu 的 html 抓取到本地,保存在 ''./baidu.html" 文件中,同时显示下载的进度。

# -*- coding: utf-8 -*-import os
from urllib.request import urlretrievedef loading(block_num, block_size, total_size):"""回调函数: 数据传输时自动调用:param block_num: 已经传输的数据块数目:param block_size: 每个数据块字节:param total_size: 总字节:return:"""percent = int(100 * block_num * block_size / total_size)if percent > 100:percent = 100print("正在下载>>>{}%".format(percent))import timetime.sleep(0.5)if __name__ == '__main__':url = 'http://www.baidu.com'current_path = os.path.abspath('.')work_path = os.path.join(current_path, 'baidu.html')urlretrieve(url, work_path, loading)pass

示例代码 3:爬取百度贴吧一些小图片  

# -*- coding: utf-8 -*-import re
from urllib.request import urlretrieve, urlopendef download_img(html=None):reg_str = re.compile(r'img.*?src="(.*?)"')img_url_list = re.findall(reg_str, html)index = 0for img_url in img_url_list:if 'tiebapic' in img_url:index += 1print(img_url)urlretrieve(img_url, f'./{index}.jpg')if __name__ == '__main__':# input_url = input('input url:')input_url = 'https://tieba.baidu.com/p/6679682935'response = urlopen(input_url)html_str = response.read().decode('utf-8')download_img(html_str)

 

方法 三:( 使用 requests 包 )

Python requests 库 的 用法:https://blog.csdn.net/freeking101/article/details/60868350

# -*- coding: utf-8 -*-import requestsdef download_img():print("downloading with requests")# test_url = 'http://www.pythontab.com/test/demo.zip'# r = requests.get(test_url)# with open("./demo.zip", "wb") as ff:#     ff.write(r.content)img_url = 'https://img9.doubanio.com/view/celebrity/s_ratio_celebrity/public/p28424.webp'r = requests.get(img_url)with open("./img.jpg", "wb") as ff:ff.write(r.content)if __name__ == '__main__':download_img()

 

 

使用 requests 模块显示下载进度

 

1. 相关资料

请求关键参数:stream=True。默认情况下,当你进行网络请求后,响应体会立即被下载。你可以通过 stream 参数覆盖这个行为,推迟下载响应体直到访问 Response.content 属性。

tarball_url = 'https://github.com/kennethreitz/requests/tarball/master'
r = requests.get(tarball_url, stream=True)

此时仅有响应头被下载下来了,连接保持打开状态,因此允许我们根据条件获取内容:

if int(r.headers['content-length']) < TOO_LONG:content = r.content...

进一步使用 Response.iter_content 和 Response.iter_lines 方法来控制工作流,或者以 Response.raw 从底层 urllib3 的 urllib3.HTTPResponse

from contextlib import closingwith closing(requests.get('http://httpbin.org/get', stream=True)) as r:# Do things with the response here.

保持活动状态(持久连接) 
归功于urllib3,同一会话内的持久连接是完全自动处理的,同一会话内发出的任何请求都会自动复用恰当的连接!

注意:只有当响应体的所有数据被读取完毕时,连接才会被释放到连接池;所以确保将 stream 设置为 False 或读取 Response 对象的 content 属性。

 

2. 下载文件并显示进度条

在 Python3 中,print()方法的默认结束符(end=’\n’),当调用完之后,光标自动切换到下一行,此时就不能更新原有输出。

将结束符改为 “\r” ,输出完成之后,光标会回到行首,并不换行。此时再次调用 print() 方法,就会更新这一行输出了。

结束符也可以使用 “\d”,为退格符,光标回退一格,可以使用多个,按需求回退。

在结束这一行输出时,将结束符改回 “\n” 或者不指定使用默认

下面是一个格式化的进度条显示模块。代码如下:

#!/usr/bin/env python3import requests
from contextlib import closing"""
作者:微微寒
链接:https://www.zhihu.com/question/41132103/answer/93438156
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
"""class ProgressBar(object):def __init__(self, title, count=0.0, run_status=None, fin_status=None,total=100.0, unit='', sep='/', chunk_size=1.0):super(ProgressBar, self).__init__()self.info = "[%s] %s %.2f %s %s %.2f %s"self.title = titleself.total = totalself.count = countself.chunk_size = chunk_sizeself.status = run_status or ""self.fin_status = fin_status or " " * len(self.status)self.unit = unitself.seq = sepdef __get_info(self):# 【名称】状态 进度 单位 分割线 总数 单位_info = self.info % (self.title, self.status, self.count/self.chunk_size, self.unit, self.seq, self.total/self.chunk_size, self.unit)return _infodef refresh(self, count=1, status=None):self.count += count# if status is not None:self.status = status or self.statusend_str = "\r"if self.count >= self.total:end_str = '\n'self.status = status or self.fin_statusprint(self.__get_info(), end=end_str)def main():with closing(requests.get("http://www.futurecrew.com/skaven/song_files/mp3/razorback.mp3", stream=True)) as response:chunk_size = 1024content_size = int(response.headers['content-length'])progress = ProgressBar("razorback", total=content_size, unit="KB", chunk_size=chunk_size, run_status="正在下载", fin_status="下载完成")# chunk_size = chunk_size < content_size and chunk_size or content_sizewith open('./file.mp3', "wb") as file:for data in response.iter_content(chunk_size=chunk_size):file.write(data)progress.refresh(count=len(data))if __name__ == '__main__':main()

 

 

Python 编写断点续传下载软件

 

另一种方法是调用 curl 之类支持断点续传的下载工具。后续补充

 

一、HTTP 断点续传原理

其实HTTP断点续传原理比较简单,在HTTP数据包中,可以增加Range头,这个头以字节为单位指定请求的范围,来下载范围内的字节流。如:

如上图勾下来的地方,我们发送数据包时选定请求的内容的范围,返回包即获得相应长度的内容。所以,我们在下载的时候,可以将目标文件分成很多“小块”,每次下载一小块(用Range标明小块的范围),直到把所有小块下载完。

当网络中断,或出错导致下载终止时,我们只需要记录下已经下载了哪些“小块”,还没有下载哪些。下次下载的时候在Range处填写未下载的小块的范围即可,这样就能构成一个断点续传。

其实像迅雷这种多线程下载器也是同样的原理。将目标文件分成一些小块,再分配给不同线程去下载,最后整合再检查完整性即可。

 

二、Python 下载文件实现方式

我们仍然使用之前介绍过的 requests 库作为 HTTP 请求库。

先看看这段文档:http://docs.python-requests.org/en/latest/user/advanced/#body-content-workflow,当请求时设置steam=True的时候就不会立即关闭连接,而我们以流的形式读取body,直到所有信息读取完全或者调用Response.close关闭连接。

所以,如果要下载大文件的话,就将 steam 设置为True,慢慢下载,而不是等整个文件下载完才返回。

stackoverflow上有同学给出了一个简单的下载 demo:

#!/usr/bin/env python3import requestsdef download_file(url):local_filename = url.split('/')[-1]# NOTE the stream=True parameterr = requests.get(url, stream=True)with open(local_filename, 'wb') as f:for chunk in r.iter_content(chunk_size=1024): if chunk:  # filter out keep-alive new chunksf.write(chunk)f.flush()return local_filename

这基本上就是我们核心的下载代码了。

当使用 requests 的 get 下载大文件/数据时,建议使用使用 stream 模式。

当把 get 函数的 stream 参数设置成 False 时,它会立即开始下载文件并放到内存中,如果文件过大,有可能导致内存不足。

当把 get 函数的 stream 参数设置成 True 时,它不会立即开始下载,当你使用 iter_content 或 iter_lines 遍历内容或访问内容属性时才开始下载。需要注意一点:文件没有下载之前,它也需要保持连接。

iter_content:一块一块的遍历要下载的内容
iter_lines:一行一行的遍历要下载的内容
使用上面两个函数下载大文件可以防止占用过多的内存,因为每次只下载小部分数据。

示例代码:r = requests.get(url_file, stream=True)
f = open("file_path", "wb")
for chunk in r.iter_content(chunk_size=512):
if chunk:
f.write(chunk)

 

三、断点续传结合大文件下载

现在结合这两个知识点写个小程序:支持断点续传的下载器。

我们可以先考虑一下需要注意的有哪些点,或者可以添加的功能有哪些:

1. 用户自定义性:可以定义cookie、referer、user-agent。如某些下载站检查用户登录才允许下载等情况。
2. 很多服务端不支持断点续传,如何判断?
3. 怎么去表达进度条?
4. 如何得知文件的总大小?使用HEAD请求?那么服务器不支持HEAD请求怎么办?
5. 下载后的文件名怎么处理?还要考虑windows不允许哪些字符做文件名。(header中可能有filename,url中也有filename,用户还可以自己指定filename)
6. 如何去分块,是否加入多线程。

其实想一下还是有很多疑虑,而且有些地方可能一时还解决不了。先大概想一下各个问题的答案:

1. headers可以由用户自定义
2. 正式下载之前先HEAD请求,得到服务器status code是否是206,header中是否有Range-content等标志,判断是否支持断点续传。
3. 可以先不使用进度条,只显示当前下载大小和总大小
4. 在HEAD请求中匹配出Range-content中的文件总大小,或获得content-length大小(当不支持断点续传的时候会返回总content-length)。如果不支持HEAD请求或没有content-type就设置总大小为0.(总之不会妨碍下载即可)
5. 文件名优先级:用户自定义 > header中content-disposition > url中的定义,为了避免麻烦,我这里和linux下的wget一样,忽略content-disposition的定义。如果用户不指定保存的用户名的话,就以url中最后一个“/”后的内容作为用户名。
6. 为了稳定和简单,不做多线程了。如果不做多线程的话,我们分块就可以按照很小来分,如1KB,然后从头开始下载,一K一K这样往后填充。这样避免了很多麻烦。当下载中断的时候,我们只需要简单查看当前已经下载了多少字节,就可以从这个字节后一个开始继续下载。
解决了这些疑问,我们就开始动笔了。实际上,疑问并不是在未动笔的时候干想出来的,基本都是我写了一半突然发现的问题。

解决了这些疑问,我们就开始动笔了。实际上,疑问并不是在未动笔的时候干想出来的,基本都是我写了一半突然发现的问题。

def download(self, url, filename, headers = {}):finished = Falseblock = self.config['block']local_filename = self.remove_nonchars(filename)tmp_filename = local_filename + '.downtmp'if self.support_continue(url):  # 支持断点续传try:with open(tmp_filename, 'rb') as fin:self.size = int(fin.read()) + 1except:self.touch(tmp_filename)finally:headers['Range'] = "bytes=%d-" % (self.size, )else:self.touch(tmp_filename)self.touch(local_filename)size = self.sizetotal = self.totalr = requests.get(url, stream = True, verify = False, headers = headers)if total > 0:print "[+] Size: %dKB" % (total / 1024)else:print "[+] Size: None"start_t = time.time()with open(local_filename, 'ab') as f:try:for chunk in r.iter_content(chunk_size = block): if chunk:f.write(chunk)size += len(chunk)f.flush()sys.stdout.write('\b' * 64 + 'Now: %d, Total: %s' % (size, total))sys.stdout.flush()finished = Trueos.remove(tmp_filename)spend = int(time.time() - start_t)speed = int(size / 1024 / spend)sys.stdout.write('\nDownload Finished!\nTotal Time: %ss, Download Speed: %sk/s\n' % (spend, speed))sys.stdout.flush()except:import tracebackprint traceback.print_exc()print "\nDownload pause.\n"finally:if not finished:with open(tmp_filename, 'wb') as ftmp:ftmp.write(str(size))

这是下载的方法。首先if语句调用self.support_continue(url)判断是否支持断点续传。如果支持则从一个临时文件中读取当前已经下载了多少字节,如果不存在这个文件则会抛出错误,那么size默认=0,说明一个字节都没有下载。

然后就请求url,获得下载连接,for循环下载。这个时候我们得抓住异常,一旦出现异常,不能让程序退出,而是正常将当前已下载字节size写入临时文件中。下次再次下载的时候读取这个文件,将Range设置成bytes=(size+1)-,也就是从当前字节的后一个字节开始到结束的范围。从这个范围开始下载,来实现一个断点续传。

判断是否支持断点续传的方法还兼顾了一个获得目标文件大小的功能:

def support_continue(self, url):headers = {'Range': 'bytes=0-4'}try:r = requests.head(url, headers = headers)crange = r.headers['content-range']self.total = int(re.match(ur'^bytes 0-4/(\d+)$', crange).group(1))return Trueexcept:passtry:self.total = int(r.headers['content-length'])except:self.total = 0return False

用正则匹配出大小,获得直接获取 headers['content-length'],获得将其设置为0.

核心代码基本上就是这些,再就是一些设置。github:https://github.com/phith0n/py-wget/blob/master/py-wget.py

运行程序,获取 emlog 最新的安装包:

中间我按 Ctrl + C人工打断了下载进程,但之后还是继续下载,实现了“断点续传”。

但在我实际测试过程中,并不是那么多请求可以断点续传的,所以我对于不支持断点续传的文件这样处理:重新下载。

下载后的压缩包正常解压,也充分证明了下载的完整性:

动态图演示

github 地址:一个支持断点续传的小下载器:py-wget:https://github.com/phith0n/py-wget

 

 

多线程下载文件

 

示例代码:

# 在python3下测试import sys
import requests
import threading
import datetime# 传入的命令行参数,要下载文件的url
url = sys.argv[1]def Handler(start, end, url, filename):headers = {'Range': 'bytes=%d-%d' % (start, end)}r = requests.get(url, headers=headers, stream=True)# 写入文件对应位置with open(filename, "r+b") as fp:fp.seek(start)var = fp.tell()fp.write(r.content)def download_file(url, num_thread = 5):r = requests.head(url)try:file_name = url.split('/')[-1]file_size = int(r.headers['content-length'])   # Content-Length获得文件主体的大小,当http服务器使用Connection:keep-alive时,不支持Content-Lengthexcept:print("检查URL,或不支持对线程下载")return#  创建一个和要下载文件一样大小的文件fp = open(file_name, "wb")fp.truncate(file_size)fp.close()# 启动多线程写文件part = file_size // num_thread  # 如果不能整除,最后一块应该多几个字节for i in range(num_thread):start = part * iif i == num_thread - 1:   # 最后一块end = file_sizeelse:end = start + partt = threading.Thread(target=Handler, kwargs={'start': start, 'end': end, 'url': url, 'filename': file_name})t.setDaemon(True)t.start()# 等待所有线程下载完成main_thread = threading.current_thread()for t in threading.enumerate():if t is main_thread:continuet.join()print('%s 下载完成' % file_name)if __name__ == '__main__':start = datetime.datetime.now().replace(microsecond=0)  download_file(url)end = datetime.datetime.now().replace(microsecond=0)print("用时: ", end='')print(end-start)

 

 

Python下载图片、音乐、视频

 

示例代码:

# -*- coding:utf-8 -*-import re
import requests
from contextlib import closing
from lxml import etreeclass Spider(object):""" crawl image """def __init__(self):self.index = 0self.url = "http://www.xiaohuar.com"self.proxies = {"http": "http://172.17.18.80:8080", "https": "https://172.17.18.80:8080"}passdef download_image(self, image_url):real_url = self.url + image_urlprint "downloading the {0} image".format(self.index)with open("{0}.jpg".format(self.index), 'wb') as f:self.index += 1f.write(requests.get(real_url, proxies=self.proxies).content)passpassdef start_crawl(self):start_url = "http://www.xiaohuar.com/hua/"r = requests.get(start_url, proxies=self.proxies)if r.status_code == 200:temp = r.content.decode("gbk")html = etree.HTML(temp)links = html.xpath('//div[@class="item_t"]//img/@src')map(self.download_image, links)# next_page_url = html.xpath('//div[@class="page_num"]//a/text()')# print next_page_url[-1]# print next_page_url[-2]# print next_page_url[-3]next_page_url = html.xpath(u'//div[@class="page_num"]//a[contains(text(),"下一页")]/@href')page_num = 2while next_page_url:print "download {0} page images".format(page_num)r_next = requests.get(next_page_url[0], proxies=self.proxies)if r_next.status_code == 200:html = etree.HTML(r_next.content.decode("gbk"))links = html.xpath('//div[@class="item_t"]//img/@src')map(self.download_image, links)try:next_page_url = html.xpath(u'//div[@class="page_num"]//a[contains(text(),"下一页")]/@href')except BaseException as e:next_page_url = Noneprint epage_num += 1passelse:print "response status code : {0}".format(r_next.status_code)passelse:print "response status code : {0}".format(r.status_code)passclass ProgressBar(object):def __init__(self, title, count=0.0, run_status=None, fin_status=None, total=100.0, unit='', sep='/', chunk_size=1.0):super(ProgressBar, self).__init__()self.info = "[%s] %s %.2f %s %s %.2f %s"self.title = titleself.total = totalself.count = countself.chunk_size = chunk_sizeself.status = run_status or ""self.fin_status = fin_status or " " * len(self.status)self.unit = unitself.seq = sepdef __get_info(self):# 【名称】状态 进度 单位 分割线 总数 单位_info = self.info % (self.title, self.status,self.count / self.chunk_size, self.unit, self.seq, self.total / self.chunk_size, self.unit)return _infodef refresh(self, count=1, status=None):self.count += count# if status is not None:self.status = status or self.statusend_str = "\r"if self.count >= self.total:end_str = '\n'self.status = status or self.fin_statusprint self.__get_info(), end_strdef download_mp4(video_url):print video_urltry:with closing(requests.get(video_url.strip().decode(), stream=True)) as response:chunk_size = 1024with open('./{0}'.format(video_url.split('/')[-1]), "wb") as f:for data in response.iter_content(chunk_size=chunk_size):f.write(data)f.flush()except BaseException as e:print ereturndef mp4():proxies = {"http": "http://172.17.18.80:8080", "https": "https://172.17.18.80:8080"}url = "http://www.budejie.com/video/"r = requests.get(url)print r.urlif r.status_code == 200:print "status_code:{0}".format(r.status_code)content = r.contentvideo_urls_compile = re.compile("http://.*?\.mp4")video_urls = re.findall(video_urls_compile, content)print len(video_urls)# print video_urlsmap(download_mp4, video_urls)else:print "status_code:{0}".format(r.status_code)def mp3():proxies = {"http": "http://172.17.18.80:8080", "https": "https://172.17.18.80:8080"}with closing(requests.get("http://www.futurecrew.com/skaven/song_files/mp3/razorback.mp3", proxies=proxies, stream=True)) as response:chunk_size = 1024content_size = int(response.headers['content-length'])progress = ProgressBar("razorback", total=content_size, unit="KB", chunk_size=chunk_size, run_status="正在下载",fin_status="下载完成")# chunk_size = chunk_size < content_size and chunk_size or content_sizewith open('./file.mp3', "wb") as f:for data in response.iter_content(chunk_size=chunk_size):f.write(data)progress.refresh(count=len(data))if __name__ == "__main__":t = Spider()t.start_crawl()   mp3()mp4()   pass

下载视频的效果

 

另一个下载图片示例代码:

( github 地址:https://github.com/injetlee/Python/blob/master/爬虫集合/meizitu.py )

包括了创建文件夹,利用多线程爬取,设置的是5个线程,可以根据自己机器自己来设置一下。

import requests
import os
import time
import threading
from bs4 import BeautifulSoupdef download_page(url):'''用于下载页面'''headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}r = requests.get(url, headers=headers)r.encoding = 'gb2312'return r.textdef get_pic_list(html):'''获取每个页面的套图列表,之后循环调用get_pic函数获取图片'''soup = BeautifulSoup(html, 'html.parser')pic_list = soup.find_all('li', class_='wp-item')for i in pic_list:a_tag = i.find('h3', class_='tit').find('a')link = a_tag.get('href')text = a_tag.get_text()get_pic(link, text)def get_pic(link, text):'''获取当前页面的图片,并保存'''html = download_page(link)  # 下载界面soup = BeautifulSoup(html, 'html.parser')pic_list = soup.find('div', id="picture").find_all('img')  # 找到界面所有图片headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}create_dir('pic/{}'.format(text))for i in pic_list:pic_link = i.get('src')  # 拿到图片的具体 urlr = requests.get(pic_link, headers=headers)  # 下载图片,之后保存到文件with open('pic/{}/{}'.format(text, link.split('/')[-1]), 'wb') as f:f.write(r.content)time.sleep(1)   # 休息一下,不要给网站太大压力,避免被封def create_dir(name):if not os.path.exists(name):os.makedirs(name)def execute(url):page_html = download_page(url)get_pic_list(page_html)def main():create_dir('pic')queue = [i for i in range(1, 72)]   # 构造 url 链接 页码。threads = []while len(queue) > 0:for thread in threads:if not thread.is_alive():threads.remove(thread)while len(threads) < 5 and len(queue) > 0:   # 最大线程数设置为 5cur_page = queue.pop(0)url = 'http://meizitu.com/a/more_{}.html'.format(cur_page)thread = threading.Thread(target=execute, args=(url,))thread.setDaemon(True)thread.start()print('{}正在下载{}页'.format(threading.current_thread().name, cur_page))threads.append(thread)if __name__ == '__main__':main()

 

 

 

 

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. axure使用方法汇总

    Axure也有格式刷(AxureRP 8) 详细说明Axure也有格式刷功能你知道吗http://axure.zhizuobiao.com/axure-18052900139/官网https://www.axure.com/备注避免 AXURE 运行缓慢或假死的几点注意事项和解决方法https://www.axure.com.cn/3954/http://www.webppd.com/thread-3876-1-1…...

    2024/4/18 15:55:18
  2. 测试网页兼容性时如何选择浏览器

    最近有测试Web的项目,合理的选取测试的浏览器是个重大问题,于是翻了几天资料,主要从以下几个方面来选择测试的浏览器: 1.浏览器的内核:使用到主流浏览器内核的浏览器需要测试 2.各浏览器在国内的市场占有率:主要参照了百度统计的数据 3.从项目需求角度出发选取各浏览器…...

    2024/4/19 4:03:53
  3. 图灵访谈之三十二:陈皓(@左耳朵耗子)专访-----一个拥有独特个性、优秀人格的魅力的技术人

    图灵访谈之三十二:陈皓(@左耳朵耗子)专访 芝兰生于深谷,不以无人而不芳。君子修身养德,不以穷困而改志。 “码农人物志”第二期码农代表:陈皓(@左耳朵耗子),酷壳coolshell.cn博主。14年软件开发相关工作经验,8年以上项目和团队管理经验,6年的软件行业咨询经验。擅长…...

    2024/4/28 9:40:51
  4. 班主任工作总结

    班主任工作总结转载于:https://blog.51cto.com/zhangyaofei2008/151491...

    2024/4/18 4:04:50
  5. 单向链表实现学生管理系统

    题目说明 每个学生的信息包括:学号、姓名、性别、手机号码、数学分数、语文分数。程序使用链表结构完成以下管理功能:创建链表 从键盘输入某个学生的信息,并将其插入链表中 从键盘输入某个学生的学号,并将其从链表中删除 对某个学生的信息的修改 查询符合某个条件(允许条件…...

    2024/4/19 12:53:48
  6. 私有云基础架构设计:存储、网络、计算、安全和应用的设计最佳实践及案例

    前两天看到网络某位大牛的一篇文章分析超融合市场,其中提到“超融合是从很大意义上将计算、存储、网络、安全等企业级IT基础设施有机融合在了一起,但不只是硬件架构上的融合。到目前为止,能完全有机融合这四大元素的公司似乎还没有出现,更多的还是如何将计算、存储、网络还…...

    2024/4/22 2:49:54
  7. WebAssembly已支持所有主流浏览器

    Firefox Quantum、Safari、Edge和Chrome一并支持WebAssembly,可以接近原生速度运行Web应用程序。点击【阅读原文】获取原文地址。作者:Judy DeMocker 译者:王鸿蒙 审校:包研虽然Mozilla已经准备推出旗下最快的浏览器Firefox Quantum,但WebAssembly还是有一些值得注意的改进…...

    2024/4/18 3:58:34
  8. 功夫之王段永平

    “我希望以后股市别涨那么快,这样我就可以从百富榜中逃离了。”  2003年9月3日,段永平在给我们的一封邮件中用憋脚的英文幽默地写道。一个多月后发布的“2003胡润百富榜”上,段永平以10亿元财富位居第83名。  段永平是百富榜上的一个传奇人物,头衔虽是广东步步高电子掌…...

    2024/4/25 8:04:14
  9. VRML浏览器插件小结

    VRML(虚拟现实建模语言)可以实现一种基于B/S的3D图形显示,简而言之,就是三维的网页。它须通过浏览器观看,还必须像Flash一样安装一个插件,使IE、Netscape或Firefox之类的浏览器可以解析wrl的文件格式。 目前VRML插件种类繁多,功能层次各异,在开发和使用的通用性上仍…...

    2024/4/18 4:01:46
  10. 上机签到:信息检索技术 04图档1 第十次

    请同学们在本帖下留言签到。 如果你有自己的博客,请在签到时附上你的博客的网址。 CSDN的博客有一个在线阅读器的功能,即电子报。考虑到很多同学都建立了自己的博客,为了在班级内部实现博客信息的聚合,也增进大家的相互了解,为各自的博客增长人气。请有博客的同学访问以下…...

    2024/4/18 3:53:27
  11. Axure教程 原型设计工具Axure RP新手入门教程(二):流程图

    上一篇文章与大家分享了Axure RP的基础知识,本篇文章将与大家分享Axure RP中的流程图功能。流程图Axure RP中的流程图您可以使用Axure RP创建流程图,用户流程,业务流程模型和其他流程图。可以自由添加形状,图像和快照小部件以用作流元素,然后使用“connector(连接器)”工…...

    2024/4/18 3:57:04
  12. [歪谈]物质激励如果不管用了,不妨试一试精神管理

    【申明】本文是“歪谈”风格,仅用于和大家探讨观点,提高大家的思维性。错误之处在所难免,欢迎大家的批评指正。今天我们简单探讨一个话题:团队的精神管理。前几天和一些创业者在一起聚会,大家讨论的话题无外乎生意难做、钱难收、创新难、用户口味太难捉摸外,不过类似这些…...

    2024/4/18 3:52:40
  13. Axure教程 axure新手入门基础(2)

    转载自:http://www.woshipm.com/rp/39208.html(二)Axure rp的线框图元件l 图片图片元件拖入编辑区后,可以通过双击选择本地磁盘中的图片,将图片载入到编辑区,axure会自动提示将大图片进行优化,以避免原型文件过大;选择图片时可以选择图片原始大小,或保持图片元件的大…...

    2024/4/20 16:54:12
  14. 对腾讯几款产品的评论

    1、腾讯的QQ校友中的班级 vs 校内应用班级 QQ校友是在校内网红火之后推出的。先入为主,估计当前的校内网活跃用户数多于QQ校友。因大部分班级都有QQ群,而QQ校友录又拥有通过QQ群邀请同学的通道,且QQ的使用率远大于校内网,预计QQ校友中的“班级”活跃程度会在2年内超过校内…...

    2024/4/18 4:04:55
  15. 乐者为王 —— Linus Torvalds

    作者:方兴东  导语:28岁的芬兰青年李纳斯创造了一个全新的世界:就是一种名为Linux的操作系统。它所产生的力量决定了编程领域的新氛围,正如我们的环境决定了动植物的特性一样。创造简洁优雅的程序,写出干净而无冗长的代码,或者是超一流的程序,就足以赢得同行们的尊敬和…...

    2024/4/25 14:36:19
  16. 浏览器内核差异以及兼容性处理

    浏览器内核差异浏览器最核心的部分是“Rendering Engine”,即“渲染引擎”,我们一般叫做浏览器内核。它主要的功能是解释网页中的语法并渲染网页。所以渲染引擎决定了浏览器如何显示网页内容以及页面的格式信息。不同的浏览器内核对网页语法的解释不尽相同,这就导致了不同浏…...

    2024/4/20 13:17:23
  17. VC++:菜单的使用总结

    菜单是windows应用程序经常使用的资源之一。从今天开始,把有关菜单的创建及使用等各方面的基本用法总结到一起,算是做个笔记吧!准备一天写一点,陆陆续续完成!一、菜单的创建:(一)VC++菜单通过编辑资源文件直接创建菜单可以自己编写菜单资源文件来完成来手工创建菜单,这…...

    2024/4/19 8:57:47
  18. 小明的调查统计

    小明的调查统计 时间限制:1000 ms | 内存限制:65535 KB难度:1 描述 最近小明他们社团对理工全校每个班级进行了一次社会调查,他们对每个人的体重进行了统计。现在小明的任务是记录每个班级最重的人的体重和最轻人的体重,并求每个班级的体重差(班级最重人体重-班级最轻…...

    2024/4/18 4:16:38
  19. Android 制作简易浏览器源码

    完成浏览器的制作首先需要一个叫WebView的组件,它和Safai、Chrome一样都是基于Webkit网页渲染引擎,可以通过加载HTML数据的方式便捷地展现软件的界面。使用WebView开发软件有一下几个优点: 1.可以打开远程URL页面,也可以加载本地HTML数据; 2.可以无缝的在Java和JavaScri…...

    2024/4/12 14:13:08
  20. 学习笔记:axure 高级教程 6 使用技巧集锦

    技巧一.画面移动。当设计画面很大时,为了选取不同位置的组件,需使用垂直与水平的滚动条来定位,这使得选取组件的动作变慢,操作起来也不方便。可以试试这样,鼠标光标聚焦在主操作区,按住键盘的空格键,此时鼠标光标会切换成手状,就可以像在PDF文件里那样抓着画面任意滑动…...

    2024/4/18 4:03:36

最新文章

  1. 第 8 章 机器人平台设计(自学二刷笔记)

    重要参考&#xff1a; 课程链接:https://www.bilibili.com/video/BV1Ci4y1L7ZZ 讲义链接:Introduction Autolabor-ROS机器人入门课程《ROS理论与实践》零基础教程 学习到当前阶段大家对ROS已经有一定的认知了&#xff0c;但是之前的内容更偏理论&#xff0c;尤其是介绍完第6…...

    2024/5/2 7:15:29
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. 解决npm install安装node-sass包容易失败的问题

    具体问题如下&#xff1a; npm ERR! code ERESOLVE npm ERR! ERESOLVE unable to resolve dependency tree npm ERR! npm ERR! While resolving: XXX3.4.0 npm ERR! Found: webpack5.31.2 npm ERR! node_modules/webpack npm ERR! peer webpack”^4.0.0 || ^5.0.0″ from html-…...

    2024/5/1 13:13:30
  4. Java深度优先搜索DFS(含面试大厂题和源码)

    深度优先搜索&#xff08;Depth-First Search&#xff0c;简称DFS&#xff09;是一种用于遍历或搜索树或图的算法。DFS 通过沿着树的深度来遍历节点&#xff0c;尽可能深地搜索树的分支。当节点v的所在边都已被探寻过&#xff0c;搜索将回溯到发现节点v的那条边的起始节点。这个…...

    2024/4/30 5:58:20
  5. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/1 17:30:59
  6. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/4/30 18:14:14
  7. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/4/29 2:29:43
  8. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/4/30 18:21:48
  9. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/4/27 17:58:04
  10. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/4/27 14:22:49
  11. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/4/28 1:28:33
  12. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/4/30 9:43:09
  13. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/4/27 17:59:30
  14. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/4/25 18:39:16
  15. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/4/28 1:34:08
  16. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/4/26 19:03:37
  17. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/4/29 20:46:55
  18. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/4/30 22:21:04
  19. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/1 4:32:01
  20. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/4/27 23:24:42
  21. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/4/28 5:48:52
  22. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/4/30 9:42:22
  23. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/4/30 9:43:22
  24. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/4/30 9:42:49
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57