首页 编程教程正文

【分享】套图爬虫,以美图录为例

piaodoo 编程教程 2020-02-22 22:14:30 1191 0 python教程

本文来源吾爱破解论坛

本帖最后由 windBlows 于 2018-6-21 22:09 编辑

[Python] 纯文本查看 复制代码

## 此模板主要用于多线程套图下载,不过一般大众爬虫不用破译的都可以改改使用,附件有个美图录的例子
## 参考了很多资料,最主要是 https://blog.csdn.net/baidu_35085676/article/details/68958267 和 https://cuiqingcai.com/3179.html 这两个写的也都比较详细
## 每个用途 每个网址 细节都会有差异 所有带(*)的都属于DIY范畴,需要一些基本的html知识
## 请灵活使用


import requests ##参考http://docs.python-requests.org/zh_CN/latest/user/quickstart.html
from bs4 import BeautifulSoup ##参考http://beautifulsoup.readthedocs.io/zh_CN/v4.4.0/#id55
import os ##本地写入数据
import urllib.request ##有时直接打开图片地址会显示403 Forbidden,只有先打开相关网页再打开图片才能正常显示,所以我就先打开一下网页,可省略
import re ##正则表达式,用于匹配格式
from multiprocessing import Pool ##多线程


headers = {'User-Agent':"Mozilla/5.0", "Referer": "图库主页"} ##浏览器请求头,有时python直接获取图片时防盗链会踢出,所以我们假装是在用浏览器

def run(url): ##(*)传入图片某分类网页的url

    start_html = requests.get(url,  headers=headers) ##request该url的html文件
    Soup = BeautifulSoup(start_html.text, 'lxml') ##使用BeautifulSoup来解析我们获取到的网页(‘lxml’是指定的解析器 具体请参考官方文档哦)
    all_a = Soup.find('div', class_='主体的class名称').find_all('a') ##(*)查找该网页上主体的所有图片

    path = url.split('/')[-2] ##(*)网址的最后一个/之前一般是这一类的总称,可作为文件夹名
    if not os.path.exists("存储总目录" + "/" + path): ##如果没有这个文件夹的话,创造并进入
        os.makedirs("存储总目录" + "/" + path) ##创建一个存放的文件夹
        os.chdir("存储总目录" + "/" + path) ##切换到上面创建的文件夹

    for a in all_a:

        href = a["href"] ##(*) 获取套图网页的url,可省略
        elem = a.img['src'] ##(*) 获取本图片地址
        folder = elem.split('/')[-2] ##(*) 获取该套图的名称

        length = a.next_sibling.next_sibling.get_text()
        max_span = int(length[-17:-14])  ##(*) 找到该套图的网页一共有多少页

        html = requests.get(href, headers=headers, allow_redirects=False) ##访问套图网页,并阻止重定向(也是防盗链的一种)
        u = urllib.request.urlopen(href) ##真的打开这个网页,可省略

        for page in range(1, max_span + 1):

            page_url = elem[:-5] + str(page) + ".jpg" ##(*) 图片地址格式,需要自己探索
            print(page_url) ##(*) 打印一下图片地址,可省略

            img_html = requests.get(page_url, headers=headers, allow_redirects=False) ##访问图片地址
            name = folder + '-' + str(page) ##(*) 图片名格式,套图名称+第几张图

            f = open(name+'.jpg', 'ab') ##写入这个图片
            f.write(img_html.content) ##多媒体文件要用.content写
            f.close()


urls = {'url1', 'url2','url3'} ##这就是各分类的url

pool = Pool(30) ##线程数
for url in urls:
    pool.apply_async(run, args=(url))

pool.close()
pool.join()
print('所有图片已下完')


0.1改版:
修复了一些bug;
添加了断点续传功能;
文件夹名称改为套图地址;

0.2改版:
修复了一些文件夹命名问题,以及一些数量获取问题


newDemo副本.png (825.62 KB, 下载次数: 89)

下载附件  保存到相册

2018-6-21 09:12 上传

效果图

效果图
嗨学网

Meitulu0.2.py.zip

2018-6-21 22:09 上传

点击文件名下载附件

下载积分: 吾爱币 -1 CB

1.92 KB, 下载次数: 667, 下载积分: 吾爱币 -1 CB

用于美图录,分类的url要自己填写

版权声明:

本站所有资源均为站长或网友整理自互联网或站长购买自互联网,站长无法分辨资源版权出自何处,所以不承担任何版权以及其他问题带来的法律责任,如有侵权或者其他问题请联系站长删除!站长QQ754403226 谢谢。

有关影视版权:本站只供百度云网盘资源,版权均属于影片公司所有,请在下载后24小时删除,切勿用于商业用途。本站所有资源信息均从互联网搜索而来,本站不对显示的内容承担责任,如您认为本站页面信息侵犯了您的权益,请附上版权证明邮件告知【754403226@qq.com】,在收到邮件后72小时内删除。本文链接:https://www.piaodoo.com/7891.html

搜索