首页 编程教程正文

python3 爬取天堂图片网 【50万张】【图片容量700G左右】无水印原图下载地址

piaodoo 编程教程 2020-02-22 22:15:52 1509 0 python教程

本文来源吾爱破解论坛

本帖最后由 gf7802346 于 2019-12-10 23:08 编辑

python3 爬取天堂图片网 【50万张】【图片容量700G左右】无水印原图下载地址 可分类保存
新手勿喷
图片有防盗链,下载时要加 headers,可自行下载
天堂图片网:https://www.ivsky.com/tupian/
使用方法:见下图

[Python] 纯文本查看 复制代码

import requests,os,time,threading,queue,socket
socket.setdefaulttimeout(60)

headers2 = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko Core/1.70.3732.400 QQBrowser/10.5.3817.400',
'Cookie':'Hm_lvt_862071acf8e9faf43a13fd4ea795ff8c=1573821045; _pk_ref.5.c0e8=%5B%22%22%2C%22%22%2C1573821045%2C%22https%3A%2F%2Fwww.baidu.com%2Flink%3Furl%3DKIqh9hZOaGfCjVK-AuinlS7oFMFsSfbW6Gp0JDGP8pW%26wd%3D%26eqid%3Dd436465b000b4310000000025dce99a3%22%5D; _pk_ses.5.c0e8=1; statistics_clientid=me; arccount49954=c; arccount51723=c; arccount56060=c; Hm_lpvt_862071acf8e9faf43a13fd4ea795ff8c=1573821909; _pk_id.5.c0e8=9e5d0a92e62bd205.1573821045.1.1573821909.1573821045.',
'Referer':'https://www.ivsky.com/'
}
while True:
    txt_list = os.listdir('./txt')
    for index,txt in enumerate(txt_list): print('%s:%s'%(index,txt))

    txt_name = input('请输入数字序号并按回车确定:')
    print('输入完成,请等待')
    urls = []
    for i in open('./txt/%s'%txt_list[int(txt_name)],'r',encoding='utf-8').readlines():
        if not i == '\n':
            imgs = {}
            img = eval(i.split('\n')[0])
            path = './图片收集下载/' + str(img['location']).replace('-','/') +  '/' + img['img_name'] + '.jpg'
            file_path = os.path.dirname(path)
            imgs['path'] = path
            imgs['url'] = img['img_url']
            # print(imgs)
            urls.append(path+'####'+img['img_url'])


    q = queue.Queue()

    # Python获取指定目录下所有子目录、所有文件名
    print('正在获取指定目录下所有子目录、所有文件名')
    pic_exis = []
    file_dir = './图片收集下载/%s'%txt_list[int(txt_name)].replace('.txt','')
    for root, dirs, files in os.walk(file_dir):
        # print('root_dir:', root)  # 当前目录路径
        # print('sub_dirs:', dirs)  # 当前路径下所有子目录
        # print('files:', files)  # 当前路径下所有非目录子文件
        if not len(files) == 0:
            pic_exis.extend(files)
    print(pic_exis)

    for index,url in enumerate(urls):
        # print(index,url)
        url_path = os.path.dirname(url.split('####')[0]).replace(' ','')

        if not os.path.exists(url_path): os.makedirs(url_path)
        q.put(url)

    start = time.time()
    def fetch_img_func(q):
        while True:
            try:
                url = q.get_nowait()# 不阻塞的读取队列数据
                url_path = url.split('####')[0].replace(' ','')
                url_img = url.split('####')[1]
                print('正在下载:' + url_path)

                i = q.qsize()
            except Exception as e:
                print (e)
                break
            # print ('Current Thread Name Runing %s ... ' % threading.currentThread().name)
            print("当前还有%s/%s个任务"% (i,len(urls)))

            pic_name = url_path.split('/')[-1]
            if not pic_name in pic_exis:
                res = requests.get(url_img,headers=headers2,timeout=60,stream=True)
                if res.status_code == 200:
                    # save_img_path = './img/%s.jpg'%str(i)
                    save_img_path = url_path
                    # 保存下载的图片

                    with open(save_img_path, 'wb') as fs:
                        for chunk in res.iter_content(1024):
                            fs.write(chunk)
            print('图片已存在')

    num=4  #线程数
    threads =[]
    for i  in range(num):
        t = threading.Thread(target=fetch_img_func, args=(q, ), name="child_thread_%s"%i)
        threads.append(t)
    for t in threads:
        t.start()
    for t in threads:
        t.join()

    print(time.time()-start)

QQ浏览器截图20191210224210.jpg (62.36 KB, 下载次数: 2)

下载附件  保存到相册

2019-12-10 23:03 上传

QQ浏览器截图20191210224210.jpg

QQ浏览器截图20191210224414.jpg (40.08 KB, 下载次数: 2)

下载附件  保存到相册

2019-12-10 23:03 上传

QQ浏览器截图20191210224414.jpg

txt.jpg (71.85 KB, 下载次数: 2)

下载附件  保存到相册

2019-12-10 23:03 上传

txt.jpg
嗨学网

天堂图片网图片下载.rar

2019-12-10 23:04 上传

点击文件名下载附件

下载积分: 吾爱币 -1 CB

2.57 MB, 下载次数: 109, 下载积分: 吾爱币 -1 CB

本帖被以下淘专辑推荐: · 爬虫专栏|主题: 38, 订阅: 39

版权声明:

本站所有资源均为站长或网友整理自互联网或站长购买自互联网,站长无法分辨资源版权出自何处,所以不承担任何版权以及其他问题带来的法律责任,如有侵权或者其他问题请联系站长删除!站长QQ754403226 谢谢。

有关影视版权:本站只供百度云网盘资源,版权均属于影片公司所有,请在下载后24小时删除,切勿用于商业用途。本站所有资源信息均从互联网搜索而来,本站不对显示的内容承担责任,如您认为本站页面信息侵犯了您的权益,请附上版权证明邮件告知【754403226@qq.com】,在收到邮件后72小时内删除。本文链接:https://www.piaodoo.com/8025.html

搜索