Skip to content

imarvinle/douban_movie_crawler

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

52 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

豆瓣电影爬虫

前言

感谢巍巍的前端数据分析

运行方法

  • 项目分为爬虫部分和web页面部分

    1. 爬虫运行方法:
      • 爬虫部分要求装有python3运行环境和部分依赖库,依赖库安装方法: pip3 install -r requirements.txt
      • 可以在config.py文件修改默认的线程配置和数据库配置
      • 运行: python3 main.py
    2. flask web页面运行方法:
      • 前端及相应的后端在web/目录下, cd web
      • 前端也有相应的config.py文件配置数据库,请确保爬虫和web展示的数据库配置一致
      • 安装前端依赖库: pip3 install -r requirements
      • 运行: python3 run.py
      • 前端展示网页默认开在5000端口,使用http://localhost:5000/index访问
      • 我们部署在服务器上的演示页面: http://39.108.123.85:5000/index
    • 注意: 一定要在config.py文件修改默认数据库端口配置

爬虫设计

  • 使用豆瓣电影下所有分类作为入口进行爬取
  • 爬取每部电影的详细信息和前200条左右的热门短评和影评,存入Mysql数据库
  • 使用python多线程模块threading实现一个简易的线程池
  • 爬虫架构:
  • 共有五种类型的线程:
    1. 爬取某一分类下所有电影的id,并将id加入电影id队列
    2. 获取某一部电影详细信息,并将获取的详细信息加入到数据库插入队列,同时将该电影加入到获取热门短评和热门评论的队列
    3. 获取热门短评线程从短评队列抽取一个电影来抓取它的短评,并将获取的短评加入到数据库插入队列
    4. 获取热门评论线程同上
    5. 数据库插入线程专门执行数据库的插入操作

爬取速率

  • 仅爬取电影详细信息,开两个爬取线程和一个数据库插入线程,速度可以达到60部/分钟左右。但是1个数据库插入线程不足以支持 两个爬取线程的插入,数据库队列会逐渐变长,推荐1个爬取线程匹配一个数据库插入线程

  • 等完成课程答辩,测试下100+线程的爬取速率(虽然python并没有实质的多线程,但是这种IO密集型的多线程还是有用的

开发记录

爬取流程:

  1. 首先获取tag
  2. 然后遍历tag获取所有电影,获取到的电影以Movie对象的形式加入到detail_movie队列
  3. 由于以上两步不耗时间,所以可以直接顺序执行
  4. 获取电影详细信息: 多线程从detaile_movoie队列中取出来,分别抓取详细信息后插入数据库,同时将每一步电影即movie_id或其他唯一标志符加入到 短评队列和评论队列,因为只有数据库中存在的电影,才能插入相关短评和评论,这是因为外键约束
  5. 此时启动短评队列线程(>5) 以及评论队列( > 5)获取数据库中存在的电影的短评和评论

反豆瓣反爬虫

  • 随机化UA, 项目中大概使用了十几个常见浏览器UA:
user_agent = [
    "Mozilla/5.0 (Windows NT 5.1; U; en; rv:1.8.1)Gecko/20061208 Firefox/2.0.0 Opera 9.50",
    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_1)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36",
    "Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; .NET4.0C; .NET4.0E; .NET CLR 2.0.50727; .NET CLR 3.0.30729; .NET CLR 3.5.30729; InfoPath.3; rv:11.0) like Gecko",
    "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0)",
    "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0)",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0)",
    "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)",
    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:2.0.1) Gecko/20100101 Firefox/4.0.1",
    "Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1",
    "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11",
    "Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11",
    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; TencentTraveler 4.0)",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; The World)",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Trident/4.0; SE 2.X MetaSr 1.0; SE 2.X MetaSr 1.0; .NET CLR 2.0.50727; SE 2.X MetaSr 1.0)",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Avant Browser)",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)",
]
headers = {
        "User-Agent": random.choice(user_agent),
        "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8",
        "Accept-Encoding": "gzip, deflate, br",
        "Host": "movie.douban.com",
        "Referer": "https://movie.douban.com",
        'Connection': 'keep-alive'
}
  • 新请求豆瓣会返回一个cookie,使用requests.session可以方便的管理cookie,然后基于requests.session封装一个网络请求类, 该类内部维持当前cookie已经发送请求的个数,目前是一旦超过20次就清除cookie,重新获取一个cookie, 这样可以有效防止被封ip, 每一个线程拥有一个独立的网络请求类对象。所以可以开多线程爬取,但是也不要开太多线程,同一个ip请求过多也可能被封,亲测5个左右 可以很长时间不被封ip, 找个时候开100个线程测试下最高爬取速率

  • 可以在项目中的MyOpener类内部实现代理,但是我测试过,免费代理可用率很低,所以就没有采用,但是如果有付费代理,可以在里面扩 展,每当返回403时就自动更换代理,这样其它爬取代码可以无修改运行

去重

  • 维护一个全局电影名字set,直接在获取电影id那一步实现判重和去重
  • 每一部电影的短评和评论爬取完毕后都必须将已经爬取的电影id插入到两张表中以记录已经爬取了哪些电影评论信息
  • 每次启动爬虫时都先从数据库读入当前已经读入已经爬取了详细信息的电影名字加入去重set
  • 可考虑使用布隆过滤器