Month: April 2022

如何在scrapy中集成selenium爬取网页

1.背景 我们在爬取网页时一般会使用到三个爬虫库:requests,scrapy,selenium。requests一般用于小型爬虫,scrapy用于构建大的爬虫项目,而selenium主要用来应付负责的页面(复杂js渲染的页面,请求非常难构造,或者构造方式经常变化)。 在我们面对大型爬虫项目时,肯定会优选scrapy框架来开发,但是在解析复杂JS渲染的页面时,又很麻烦。 尽管使用selenium浏览器渲染来抓取这样的页面很方便,这种方式下,我们不需要关心页面后台发生了怎样的请求,也不需要分析整个页面的渲染过程,我们只需要关心页面最终结果即可,可见即可爬,但是selenium的效率又太低。 所以,如果可以在scrapy中,集成selenium,让selenium负责复杂页面的爬取,那么这样的爬虫就无敌了,可以爬取任何网站了。 2. 环境 python 3.6.1 系统:win7 IDE:pycharm 安装过chrome浏览器 配置好chromedriver(设置好环境变量) selenium 3.7.0 scrapy 1.4.0 3.原理分析 3.1. 分析request请求的流程 首先看一下scrapy最新的架构图(https://blog.csdn.net/zwq912318834/article/details/79720742): ———————————————— 部分流程: 第一:爬虫引擎生成requests请求,送往scheduler调度模块,进入等待队列,等待调度。 第二:scheduler模块开始调度这些requests,出队,发往爬虫引擎。 第三:爬虫引擎将这些requests送到下载中间件(多个,例如加header,代理,自定义等等)进行处理。 第四:处理完之后,送往Downloader模块进行下载。 从这个处理过程来看,突破口就在下载中间件部分,用selenium直接处理掉request请求。 ———————————————— 版权声明:本文为CSDN博主「Kosmoo」的原创文章,遵循CC…

How to Initialize Java Jcop Card

History of Java Card https://en.wikipedia.org/wiki/Java_Card Developer Documentation https://docs.oracle.com/en/java/javacard/3.1/guide/using-classic-tools.html Easier (maybe) to read Developer Guide https://lig-membres.imag.fr/donsez/ujf/messi/sc/examples/javaworld/jw-07-javacard_p.html