40 442 2021-05-24 02:00:01
收藏
import requests, re, getpass, os, shutil
picList = [] # 图片列表
file = 'C:\\Users\\' + getpass.getuser() + '\\Desktop\\' # 保存路径
# 获取图片
def getUrl(url):
global picList
t, s = 0, 0
while t < 1000:
_url = url + str(t)
# 获取网页源码
result = requests.get(_url).text
# 匹配网页上的所有图片的URL
picUrl = re.findall('"objURL":"(.*?)",', result)
if len(picUrl) == 0:
break
else:
s += len(picUrl)
# 保存图片的URL
picList += picUrl
t += 60
return s
# 下载图片
def download(keyword, num):
if num > len(picList):
num = len(picList)
print('图片保存的路径:{}'.format(file))
for i in range(num):
picUrl = picList[i] # 图片的URL
# picType = picUrl[str(picUrl).rfind('.'):] # 图片的格式
picName = file + '\\' + keyword + str(i + 1) + '.jpg'
with open(picName, 'wb') as tempFile:
print('下载第张{}图片,地址:{}'.format(i + 1, picUrl))
# 保存图片
tempFile.write(requests.get(picUrl).content)
if __name__ == '__main__':
key = input('输入检索关键字:')
url = 'http://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word=' + key + '&pn='
# 获取图片
getUrl(url)
# 图片下载到桌面上的关键字文件夹里
file = file + key
if file is None:
print('保存路径错误')
else:
if os.path.exists(file):
'''
file_list = os.listdir(file)
for _f in file_list:
file_path = os.path.join(file, _f)
if os.path.isfile(file_path):
os.remove(file_path)
elif os.path.isdir(file_path):
shutil.rmtree(file_path)
'''
shutil.rmtree(file, True)
os.makedirs(file)
download(key, int(input("需要图片数量:")))
输入检索关键字:黄鹤楼
需要图片数量:10
图片保存的路径:C:\Users\Administrator\Desktop\黄鹤楼
下载第张1图片,地址:http://image109.360doc.com/DownloadImg/2017/12/2614/120146561_24_20171226025343324.jpg
下载第张2图片,地址:http://images.quanjing.com/chineseview092/high/yt-p0101725.jpg
下载第张3图片,地址:http://img.yxad.cn/images/20180817/571d39d3dd614a89b70129ab4d3c8571.jpeg
下载第张4图片,地址:http://boot-img.xuexi.cn/image/1005/process/5b53e5bee2d14397b5b5180cd27722a9.jpg
下载第张5图片,地址:http://pics2.baidu.com/feed/472309f7905298228609cb7a923545cd0b46d453.jpeg?token=3735b5b6fca388d9aa56241874733699&s=1D326F951CD037E94A78492D0300C066
下载第张6图片,地址:http://dpic.tiankong.com/8v/0p/QJ9114862369.jpg
下载第张7图片,地址:http://pic.soutu123.cn/element_origin_min_pic/16/10/04/1157f327a3c305d.jpg%21/fw/700/quality/90/unsharp/true/compress/true
下载第张8图片,地址:http://5b0988e595225.cdn.sohucs.com/images/20180208/e7f835a4b8d94e35a94d127b97f62163.jpeg
下载第张9图片,地址:http://photos.tuchong.com/47256/f/797849.jpg
下载第张10图片,地址:http://img.pconline.com.cn/images/upload/upc/tx/photoblog/1309/20/c98/25943950_1379668272404.jpg
Process finished with exit code 0
本文地址:https://xzo.com.cn/develop/python/980.html
如果您认可我们的分享,有意与我们合作开展帝国cms网站建设与开发业务或插件定制,请联系右侧在线客服。我们能给您的,就是高质量的模板与售后。
标注了信息来源为下载鸥的文章皆为原创,如果是转载的优质文章,我们也都标注了出处。如果您喜欢我们的文章,请按照下载鸥所标注的文章出处进行标注,谢谢您的配合。
Python免费、开源、简单,且含有海量的库。其功能也十分强大,不仅可以做网站、做爬虫、还可以做大数据、做人脸识别,等等等等。如果是新手入门,我们建议是首选Python。
国内知名度比较高的Python中文分词有哈工大LTP、中科院计算所NLPIR、清华大...
结巴分词支持3种模式:全模式、精确模式和搜索引擎模式,不同的模式效果会有差...
但凡对电脑知识了解多一点的朋友可能就听说过进程,而如果对蜘蛛爬虫有了解,那...
python爬虫爬取百度图片是很多人python爬虫入门后一个重要的练手项目。一方...
爬虫软件很多,支持爬虫功能的语言也很多,而用python做爬虫,辅以包罗万象的pyth...
因客户需要一键推送到多平台,下载鸥开发了这款一键推送至百度、必应、神马插...
帝国CMS自带的搜索功能虽然强大,但也有很强的局限性 -- 必须关键词完全匹配...
通过本插件,可以实现帝国cms网站对接百度云api实现图像清晰度增强的功能。经...
采集站的必备资源是自动审核,要做到日收录也离不开定时发布。而本插件的自动...
一直没看到好用的帝国cms在线考试插件,所以自己开发了一款。在线考试插件用...
帝国cms有自带的给关键词添加内链功能,但需要手动添加关键词,容易出现疏漏和...
使用帝国cms的企业用户、新闻资讯类站点的用户很多,此类站点很多时候需要有...
下载鸥开发了这款帝国cms封禁ip插件,自动记录访问情况,让我们可以更快的识别...