现在和妹子聊天,没有表情包也会被嫌弃了么?
那为了能和妹子更愉快的聊天,咱们爬他个天昏地暗的表情包!
准备
环境:Windows + Python3.6

模块:

import requests # 请求网页    
from lxml import etree # 解析网页   
from urllib import request # 下载内容    
import os # 系统包

Python爬虫常规三步俗称:“爬虫三板斧”
第一斧:抓取目标网页

简单的反爬虫机制
获取服务器响应,获取请求响应的状态码
从响应里提取出网页,获取整个网页
将抓取的网页作为参数返回

def parse_page(url):
    # 2.1简单的反爬虫机制
    HEADERS = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}
    # 2.2获取服务器响应
        # 获取请求响应的状态码
    response = requests.get(url, headers=HEADERS)
    # 2.3 从响应里提取出网页
        # 获取整个网页
    text = response.text
        # 将抓取的网页作为参数返回
    return text

第二斧:解析网页获取数据
将网页保存在HTML对象里
从网页对象根据一定的规则提取数据
根据URL的规则对URL进行循环,获取多页URL,并传给parse_page()进行抓取数据
对列表里的img对象进行提取
try.... except 对程序进行异常处理,避免因为其他原因报错
获取所有表情的URL并保存在列表里
从列表里提取出表情的URL,至于为啥不取零,列表中有空值,取零报错
对表情的URL进行处理,提取出表情图片的格式,用于组成表情的名字
获取表情的名字

alt = re.sub(r'[,。??,/\·]','',alt) #利用正则表达式对表情名字中存在的特殊字符进行处理
用 alt+suffix组成表情的新名字
def main():
    # 根据URL的规则对URL进行循环,获取多页URL,并传给parse_page()进行抓取数据
    #Python学习交流群:125240963,群内每天分享干货,欢迎各位小伙伴入群学习交流
    for x in range(1, 11):
        url = "http://www.doutula.com/photo/list/?page=%d" % x
        # 调用parse_page()函数并把url给进去
        text=parse_page(url)
        # 接收parse_page()返回的网页,并传给page_list()函数进行解析
        imgs = page_list(text)
        # 3.3 对列表里的img对象进行提取
        for img in imgs:
            # try.... except    对程序进行异常处理,避免因为其他原因报错
            try:
                # 3.4获取所有表情的URL并保存在列表里
                imgurl = img.xpath(".//@data-original")
                # 3.5从列表里提取出表情的URL,至于为啥不取零,列表中有空值,取零报错
                for img_url in imgurl:
                    # print(img_url)
                    # 分割后缀名:.jpg .png
                    # 3.6对表情的URL进行处理,提取出表情图片的格式,用于组成表情的名字
                    suffix = os.path.splitext(img_url)[1]
                    suffix = suffix.split("!")[0]

                    # 3.7获取表情的名字
                    alt = img.xpath(".//@alt")[0]
                    # alt = re.sub(r'[,。??,/\\·]','',alt)  #利用正则表达式对表情名字中存在的特殊字符进行处理
                    # 3.8用 alt+suffix组成表情的新名字
                    img_name = alt + suffix

第三斧:批量下载

使用request.urlretrieve()对表情进行下载并保存在images文件里

# 使用request.urlretrieve()对表情进行下载并保存在images文件里
                    #Python学习交流群:125240963,群内每天分享干货,欢迎各位小伙伴入群学习交流
                    request.urlretrieve(img_url, 'images/' + img_name)
                    # 打印出那些表情已经下载
                    print(img_name + '下载完毕!')

            except:
                print("表情报错")

    # 执行函数
if __name__ == '__main__':
    main()

1411851-20180614204244920-1267811922.png
1411851-20180614204252599-1212445274.png

所以Python爬虫的“三板斧”你了解了吗,是不是感觉到“三板斧”的强大!哈哈哈

最后修改:2018 年 07 月 04 日
如果觉得我的文章对你有用,请随意赞赏