本文来源吾爱破解论坛
在写完这篇帖子:https://www.52pojie.cn/forum.php ... ;page=3#pid26914458 1.png (38.83 KB, 下载次数: 5)
下载附件
保存到相册
02.png (549.22 KB, 下载次数: 2)
下载附件
保存到相册
01.png (739.62 KB, 下载次数: 1)
下载附件
保存到相册
QQ截图20190717133150.png (197.61 KB, 下载次数: 1)
下载附件
保存到相册
QQ截图20190717134733.png
(181.27 KB, 下载次数: 3)
下载附件
保存到相册
2019-7-17 13:58 上传
最后我发现,我之前的表达式又能刷了,真是造化弄人 于是我改进了,请大家忘记那个垃圾东西吧 也有点小思路
测试视频和源码都在 链接里,想要使用必须有个F盘里面有个bing文件夹里面在有个千图网无损文件夹我的python环境是3.7的
由于还要学抓包,所以我就不把爬取多页的代码加上了,如何想加的话,可以结合之前的代码复制粘贴就可以了,又突然想到 了,如果在首页上加个正则过滤小模块网站,岂不是能拿下整个网站的全部元素,但是对他们服务器的资源消耗还是很大的 ,所以你们就用我给的那个吧,还是不要搞事情了
链接:https://pan.baidu.com/s/1ANK5kcy65siASGmb5fe-6g
提取码:rndo
复制这段内容后打开百度网盘手机App,操作更方便哦
import re
import urllib.request
url_baba = "https://www.58pic.com/newpic/32681878.html"
data = urllib.request.urlopen(url_baba).read().decode('gbk','ignore')
tj = 'content="//preview.(.*?)!w1024_water'
mp4_tj = 'data-src="//pic.qiantucdn.com/58pic/(.*?)"'
title_tj = '<span class="pic-title fl">(.*?)</span>'
p = re.compile(tj).findall(str(data))
tit = re.compile(title_tj).findall(str(data))
mp4_p = re.compile(mp4_tj).findall(str(data))
h_z = p[0][-4:]
for i in range(len(p)):
if mp4_p ==[]:
pass
else:
print("发现视频,开始下载")
mp4_hz = mp4_p[0][-4:]
url = "http://pic.qiantucdn.com/58pic/" + str(mp4_p[0])
file = "F:/bing/千图网无损/" + str(tit[0]) + str(mp4_hz)
urllib.request.urlretrieve(url, filename=file)
print("下载成功:" + str(tit[0]))
continue
url = "http://pic." + str(p)
file = "F:/bing/千图网无损/" + str(tit[0]) +str(h_z)
urllib.request.urlretrieve(url,filename=file)
print("下载成功:" +str(tit[0]))
版权声明:
本站所有资源均为站长或网友整理自互联网或站长购买自互联网,站长无法分辨资源版权出自何处,所以不承担任何版权以及其他问题带来的法律责任,如有侵权或者其他问题请联系站长删除!站长QQ754403226 谢谢。
- 上一篇: 【分享】Python简易DDos攻击器源码
- 下一篇: Python学习笔记(六)- 网络爬虫