首页 编程教程正文

【爬虫】简单的demo,去哪儿门票相关信息爬取

piaodoo 编程教程 2020-02-22 22:08:25 1042 0 python教程

本文来源吾爱破解论坛

【爬虫】简单的demo,去哪儿门票相关信息爬取
【爬虫】简单的demo,去哪儿门票相关信息爬取

注意频率不要太快,不然容易挂比,ε=(′ο`*)))唉

糟糕.jpg (25.02 KB, 下载次数: 0)

下载附件  保存到相册

2019-10-15 21:00 上传


[Python] 纯文本查看 复制代码
#去哪儿景点信息抓取

# -*- coding: UTF-8 -*-
import requests
import re,time,os
from bs4 import BeautifulSoup
from fake_useragent import UserAgent
import time

class Qner(object):
    def __init__(self):
        self.ua=UserAgent()
        self.headers={"User-Agent":self.ua.random}
        self.url='https://piao.qunar.com/ticket/list.htm?keyword='
        self.city=city
        self.pagemax=int()
        self.hrefs=[]


    def get_pagemax(self):
        url=f'{self.url}{city}'
        response=requests.get(url,headers=self.headers)
        if response.status_code==200:
            soup=BeautifulSoup(response.text,'lxml')
            a=soup.find('div',class_="pager").find_all('a')
            pagemax=a[-2].get_text()
            self.pagemax=int(pagemax)


    def get_urllist(self):
        for i in range(1,self.pagemax+1):
            url=f'{self.url}{city}&page={i}'
            print(url)
            response = requests.get(url, headers=self.headers)
            time.sleep(2)
            if response.status_code == 200:
                soup = BeautifulSoup(response.text, 'lxml')
                divs=soup.find_all('div',class_="sight_item_detail clrfix")
                for div in divs:
                    name=div.find('a',class_="name").get_text()
                    print(name)
                    address=div.find('p',class_="address color999").find('span').get_text()
                    print(address)
                    try:
                        price=div.find('span',class_="sight_item_price").find('em').get_text()
                        print(price)
                    except:
                        print("价格不详!")
                    href = div.find('h3',class_='sight_item_caption').find('a')['href']
                    href = f'https://piao.qunar.com{href}'
                    self.hrefs.append(href)
                print(self.hrefs)
                time.sleep(5)

if __name__ == '__main__':
    city="北京"
    spider=Qner()
    spider.get_pagemax()
    spider.get_urllist()


qunaer.gif (109.94 KB, 下载次数: 0)

下载附件  保存到相册

2019-10-15 21:02 上传



本帖被以下淘专辑推荐: · 源码系列|主题: 31, 订阅: 8

版权声明:

本站所有资源均为站长或网友整理自互联网或站长购买自互联网,站长无法分辨资源版权出自何处,所以不承担任何版权以及其他问题带来的法律责任,如有侵权或者其他问题请联系站长删除!站长QQ754403226 谢谢。

有关影视版权:本站只供百度云网盘资源,版权均属于影片公司所有,请在下载后24小时删除,切勿用于商业用途。本站所有资源信息均从互联网搜索而来,本站不对显示的内容承担责任,如您认为本站页面信息侵犯了您的权益,请附上版权证明邮件告知【754403226@qq.com】,在收到邮件后72小时内删除。本文链接:https://www.piaodoo.com/7657.html

搜索