本文来源吾爱破解论坛
本帖最后由 孤城2002 于 2019-7-23 00:11 编辑
直接上代码
import requests
import re
import time
from urllib import parse
name = "崩坏3" # 搜索的关键字
name_url = {'word': name}
name_word = parse.urlencode(name_url) # 编码转换
y = 0 # 页数计数,从0开始依次加60,百度的3页为这里的一页
i = 1 # 文件计数
# 模仿浏览器
headers = {
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3',
'Accept-Encoding': 'gzip, deflate',
'Accept-Language': 'zh-CN,zh;q=0.9',
'Cache-Control': 'max-age=0',
'Connection': 'keep-alive',
'Upgrade-Insecure-Requests': '1',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'
}
while True:
url = 'http://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&sid=&' + name_word + '&pn=' + str(y)
print('第' + str(int(y / 60)) + '页')
data = requests.get(url, headers=headers).text # 获取页面数据
url_img = re.findall('"objURL":".*?",', data)
# 遍历图片url
for s in url_img:
img_url = s.lstrip('"objURL":"').rstrip('",')
img_fi = s.lstrip('"objURL":"').rstrip('",')[-4:] # 获取拓展名
img_name = img_url.split('/')[-1].rstrip(img_fi)
img_le = img_fi[-4]
if img_le == ".": # 筛选数据
try: # 异常处理
img = requests.get(img_url, headers=headers).content
# 保存图片
with open('img/' + img_name + img_fi, 'wb') as f:
f.write(img)
print("图片" + img_name + ' 第' + str(i) + '张' + " 地址:" + img_url)
time.sleep(1)
i = i + 1
except:
print('访问链接出错')
y = y + 60
最好使用pycharm进行运行
安装要使用的模块:requests,urllib
不会安装的百度有详细的安装教程,这个是我无聊的时候写的,可以拿去抓qq表情包还有其它有趣的图
也可以供大家学习。
版权声明:
本站所有资源均为站长或网友整理自互联网或站长购买自互联网,站长无法分辨资源版权出自何处,所以不承担任何版权以及其他问题带来的法律责任,如有侵权或者其他问题请联系站长删除!站长QQ754403226 谢谢。
- 上一篇: 【人工智能系列教程】机器学习(一)——初识机器学习
- 下一篇: 调用百度api实现ocr识别整理错