本文来源吾爱破解论坛
好久没写东西了,随便水一篇文,也是比较简单的东西
<!-- more -->
可能每个喜欢二次元的人都有自己的老婆或者老公吧,之前在朋友那里看到了一个壁纸网站wall.alphacoders.com,要是我想要亚丝娜的壁纸,只需要搜索她的英文名Asuna
即可看到一千多张有关亚丝娜的壁纸。壁纸收集爱好者肯定就和我一样想把它们给下载到自己的电脑上幻灯片当作壁纸了,当然手工下载是不可能的,必须写下爬虫,分析下壁纸下载流程。
首先我们F12
打开开发者工具,在一张图上找到下载
我们在开发者工具里面取元素,并没有看到下载链接,说明下载链接并没有包含在原始html中,但是点击是可以下载的,并且可以看到整个页面并没有进行刷新,判断是一个ajax请求,直接点进XHR
,然后再次点击下载链接可以看到请求。
可以看到这个请求返回了一个链接,我们直接访问链接,发现是可以下载的,说明这就是下载链接了,那么这个链接是怎么来的呢?
我们看看请求,这个post请求里面有一些参数,我们先不去考虑这些参数怎么来的,我们先模拟一下请求看看请求Header里面有没有什么东西是必须的,这里直接上postman
或者curl
都可以,如果你的机器上面安装了curl
我推荐用这个,因为Chrome
开发者工具,直接可以在请求上右键Copy as cURL
,直接可以帮你复制出curl命令,我这里复制出来是这样的
curl "https://wall.alphacoders.com/get_download_link.php" -H "Pragma: no-cache" -H "Origin: https://wall.alphacoders.com" -H "Accept-Encoding: gzip, deflate, br" -H "Accept-Language: zh-CN,zh;q=0.9" -H "User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36" -H "Content-Type: application/x-www-form-urlencoded; charset=UTF-8" -H "Accept: */*" -H "Cache-Control: no-cache" -H "X-Requested-With: XMLHttpRequest" -H "Cookie: __cfduid=d7ec945393d1b5ef3c28d4c9d12ef9fb11552315444; cookieconsent_status=allow; wa_session=1eogv8ehgn3itq5g4g8hfsducpkm9lbu46q893vrkhph3ued4rm89gvk7ck4fdg9k73cmrcdesoqj4crm1575vj3lfid9e67fpis661" -H "Connection: keep-alive" -H "Referer: https://wall.alphacoders.com/search.php?search=Asuna" --data "wallpaper_id=533007^&type=png^&server=images8^&user_id=79150" --compressed
我们先去掉不必要的东西 curl "https://wall.alphacoders.com/get_download_link.php" --data "wallpaper_id=533007&type=png&server=images8&user_id=79150"
,直接执行,发现可以获取到地址,所以现在要考虑的只有这些参数是怎么来的了,下面我同样放一张postman的图,可以看到是同样的可以获取到下载链接
这些参数我们从两方面考虑,一是用js算出来的,一个就是在html中存在的。
我们首先在html里找找看有没有。
通过关键字搜索页面html,我们可以找到每一张图都有一串类似于下面的属性
data-id="533007" data-type="png" data-server="images8" data-user-id="79150"
和上面的post参数是一一对应的。
所以爬取思路就出来了。
访问一个页面,取到每一个图的特定属性,然后构造post请求得到下载地址,然后访问地址下载图片
那新问题是如果进行翻页并且判断是否到了最后一页。
我们可以发现页数是通过get的网址决定的,https://wall.alphacoders.com/search.php?search=asuna&page=10
,更改page
后面的值即可。
判断是否到了尾页,我们可以打开最后一页,然后查看一下html,我们可以看到下一页
按钮的链接已经变成了 <a id='next_page' href='#'>Next ></a>
·,那我们就可以根据href
的值是否为 #
来判断了。
唯一用到的第三方库就是 Requests
,以前解析html的Dom树喜欢用BeautifulSoup
,但是后来发现解析速度上确实和re有很大差距,并且当html有很特殊的字符时会又是莫名出错,故工程量不大的情况下,我现在还是优选正则。
#coding=utf-8
import requests
import re
import os
import sys
proxies = { "http": "http://127.0.0.1:1080", "https": "http://127.0.0.1:1080", }
#proxies = {}
download_dir = './pic/'
downloaded_num = 0
total = 0
def download_pic(url, name, pic_type):
global proxies
global download_dir
global downloaded_num
global total
# if dir isn't exist, create a dir to download pic
if not os.path.exists(download_dir):
os.makedirs(download_dir)
# download pic to special dir
r = requests.get(url, proxies=proxies)
downloaded_num += 1
with open('%s/%s.%s'%(download_dir, name, pic_type), 'wb') as f:
f.write(r.content)
print('[{:5d}/{}] {}.{} Done!'.format(downloaded_num, total, name, pic_type))
def get_download_link(wallpaper_id, wallpaper_type, server, user_id):
global proxies
post_data = {
'wallpaper_id': wallpaper_id,
'type': wallpaper_type,
'server': server,
'user_id': user_id,
}
r = requests.post('https://wall.alphacoders.com/get_download_link.php', data=post_data, proxies=proxies)
download_pic(r.text, wallpaper_id, wallpaper_type)
def getwallpaper(keyword):
global proxies
global total
p_nextpage = re.compile(r"<a id='next_page' href=[\'\"](.+?)[\'\"]>")
p_item = re.compile(r'data-id="(\d+?)" data-type="(\w+?)" data-server="(\w+?)" data-user-id="(\d+?)"')
page_num = 1
while 1:
r_page = requests.get('https://wall.alphacoders.com/search.php?search=%s&lang=Chinese&page=%d' % (keyword.lower(), page_num), proxies=proxies)
nextpage_link = p_nextpage.search(r_page.text)
# if there isn't any search result, it will exit the loop
if nextpage_link == None:
print("Sorry, we have no results for your search!")
break
if page_num == 1:
total = int(re.search(r"<h1 class='center title'>\s+?(\d+)(.+?)\s+?</h1>", r_page.text).group(1))
print("the %s wallpaper's total is %d" % (keyword, total))
for item in p_item.findall(r_page.text):
wallpaper_id = item[0]
wallpaper_type = item[1]
server = item[2]
user_id = item[3]
get_download_link(wallpaper_id, wallpaper_type, server, user_id)
# if there isn't the next page's link, it will exit the loop
if nextpage_link.group(1) == '#':
print("All wallpaper done!")
break
page_num += 1
if __name__ == '__main__':
if len(sys.argv) < 2 or len(sys.argv) > 3:
usage_text = "Usage:\n\tpython getwallpaper.py miku [miki_pic]\nFirst param: the name of script\nSecond param: the wallpaper's keyword which you want to search\nThird param: the dir's name where you want to download in, optional, default in ./pic"
print(usage_text)
elif len(sys.argv) == 3:
download_dir = str(sys.argv[2])
getwallpaper(str(sys.argv[1]))
else:
getwallpaper(str(sys.argv[1]))
多说的
里面我用了下本机的代{过}{滤}理,懂的人自然懂,主要是因为直连下载确实有点慢。
另外自己懒,本来就是临时十多分钟写的一个脚本,就懒得加多线程了。
自己发了个无声视频,也就是对我讲解中的演示,需要的可以看这里https://www.bilibili.com/video/av46184510/
版权声明:
本站所有资源均为站长或网友整理自互联网或站长购买自互联网,站长无法分辨资源版权出自何处,所以不承担任何版权以及其他问题带来的法律责任,如有侵权或者其他问题请联系站长删除!站长QQ754403226 谢谢。
- 上一篇: 用python PIL库生成九宫格图片
- 下一篇: 基于python的百度网盘下载器V1.0版