Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

2020年6月12日08:48:11 22 8,354 °C
摘要

模拟登陆淘宝,就这么简单!

Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

本文 GitHub https://github.com/Jack-Cherish/PythonPark 已收录,有技术干货文章,整理的学习资料,一线大厂面试经验分享等,欢迎 Star 和 完善。

一、前言

爬虫系列,已讲 5 篇。

文字、图片、视频这类常规的内容下载、API 的使用,这些操作对你来说,应该轻而易举了。

那今天,就讲解一下高级一点的技能,「模拟登录」。

值此 618 之际,帮他/她清空一波购物车!

二、模拟登录

学爬虫,总能听到「模拟登录」这四个字,究竟什么是「模拟登录」?

通俗一点讲,「模拟登录」就是程序用账号和密码自动登录一个网站。

然后,拿到只有登录后,才能下载的网站数据。

比如,我们只有登录淘宝账号之后,才能看到购物车里有哪些东西。

本文,就以「模拟登录」淘宝为例进行讲解,并帮他/她清空购物车。

你只需要知道他/她的淘宝账号和密码,并且有个充足的钱包,就可以运行程序,扫码支付一气呵成。

体验自动结算钱包秒空的快感!

三、Selenium

模拟登录无非两种方法:请求包分析模拟登录、自动化测试工具模拟登录。

前者,需要抓包分析请求,解析各种参数,还可能涉及一些加密算法。

后者,可以绕过一些繁琐的分析过程,直接定位元素进行操作,但也会遇到一些反爬策略。

两者,都有各自的操作技巧。

之前的教程,讲解了很多基于 requests 请求包分析的爬虫思路。

本文讲解一个新思路,使用自动化测试工具 Selenium 模拟登录。

Selenium 基本的使用方法,以及如何破解淘宝对于 Selenium 的反爬策略,尽在下文。​

1、Selenium 安装

Selenium 是一个自动化测试工具,支持各种主流浏览器,例如 Chrome、Safari、Firefox 等。

不知道什么是自动化测试工具没关系,我会通过实战操作,慢慢讲解。

不管怎样,先安装 Selenium 再说。

使用 pip 直接安装 selenium

除了安装 Python 的 Selenium 第三方库,还需要根据浏览器配置相应的浏览器驱动。

以 Chrome 为例,下载浏览器驱动。

驱动下载地址(需翻墙):点击查看

需要根据浏览器的版本,选择驱动下载。

Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

无法翻墙下载没关系,我已经将这三个版本的驱动下载并上传到百度云了。

百度云链接:https://pan.baidu.com/s/1-AfONQGkK8xPwLaW5P-9Bw

提取码:cbsu

2、小试牛刀

使用 Selenium 登录百度看一下。

上面的 path\to\your\chromedriver.exe 是刚刚下载的 Chrome 驱动文件位置,根据自己的情况修改,建议使用绝对路径。结果如下图所示:

Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

程序会自动打开 Chrome 浏览器,并打开 www.baidu.com。

再来个复杂一些的例子。

打开 www.python.org 官网,并根据 name 属性为 q 找到搜索框,并输入 pycon 并点击搜索。

运行结果:

Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

写好程序,浏览器自动操作,是不是很简单,很酷炫?

这就是自动化测试工具,程序写好,浏览器自动执行你的写的操作。

find_element_by_* 是一种定位网页元素的方法,有很多方式:

可以通过,标签的 id 属性、name 属性、class_name 属性查找元素,也可以通过 xpath 等。

这里面,其实用到最多的就是 xpath,因为好用。

不用动脑思考怎么写 xpath,就能操作,方便好用。举个例子,比如我想找到 baidu.com 的搜索框的元素:

Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

在搜索框位置,点击右键,选择 copy 下的 copy xpath,直接复制 xpath 。

粘贴出来你会看到如下内容:

其实意思就是从根目录开始找,找到 id 属性为 kw 的标签。

定位到搜索框,就可以通过百度输入 Jack Cui,搜索我的相关内容。

运行结果:

Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

可以看到,运行程序,搜索 Jack Cui,能搜到我的个人网站、CSDN 和知乎等。

Selenium 就是这么简单省事。

如果想学习更多,关于 Selenuim 其他的基本方法和 Xpath 的基础知识,可以看下我 3 年前写的文章。

文章地址:点击查看

详细的,关于 Selenium 的 API 文档,可以看官方手册。

官方手册:点击查看

好了,基础知识准备完毕。

只要你会使用 copy xpath,基本的 Selenium 操作,就可以开始跟我一起「模拟登录」淘宝。

四、登录淘宝,掏空钱包

这场为了爱情的清空购物车大作战,需要分两步完成:

  • 模拟登录淘宝
  • 购物车结算

1、模拟登录淘宝

用 Selenium 模拟登录,就边看边写,按照人的操作步骤写代码即可。

打开淘宝,上来第一步肯定是点击登录按钮,不会写 XPath,那就复制这个标签的 XPath。

Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

因此点击登录的代码就是:

找到登录元素位置,然后 click() 点击。

点击登录后,进入登陆页面,找到账号框和密码框位置,并输入账号和密码。

Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

还是简单粗暴的复制粘贴 XPath 即可。

username 和 password 就是你要输入的账号和密码。

输入完密码之后,可能会出现一个验证码滑动窗口。

Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

这种滑动窗口也好解决,还是复制 XPath 匹配元素,然后使用 Selenium 的 ActionChains 方法,拖动滑块。

最后点击登陆按钮

登陆后,再读取下用户名,看下是否登陆成功即可。

分析完毕,直接上代码。

代码加了一些异常处理,以及 log 信息的打印。这里需要注意的是,滑块不是每次都出,所以要加个判断。

输入你的账号和密码,指定 Chrome 驱动路径,运行代码,看看能否如我们所愿的登陆成功。

Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

可以看到,账号密码,都输入了,验证码也通过。

但是,就是登陆不上!这是为什么呢?

2、淘宝反 Selenium 登陆破解

很简单,淘宝有反爬虫,而且是专门针对 Selenium 的。

这么操作,永远登陆不进去。

遇到这种反爬的时候,不要慌,慢慢思考

通常,遇到这种反爬虫,第一反应就是:验证码滑块滑地太快了。

被检测出来了。

我刚开始也是这么想,所以我自己写了一个滑动方法。

匀速、加速、减速,甚至颤颤巍巍滑动,都不行!

显然,跟验证码滑块无关。

这时候,就得学会测试,分析出它的放爬虫策略。

分步测试,你就会发现,账号密码程序输入,滑块程序滑动,然后暂停程序,我们手动鼠标点击登录,就能登陆成功。

神奇吧?

这是为啥?

我猜测,应该是淘宝,有针对 Selenium 的 find_element_by_* 方法的 click 事件监听。

只要是使用 Selenium 完成的点击事件,淘宝就不让你登录。

具体怎么实现的我不清楚,但是我知道怎么破解。

很简单,Selenium 这个点击方法不行,那就换个第三方库呗!

Python 最不缺的就是各种各样的第三方库。

pyautogui 了解一下。

pyautogui 功能强大,可以操控电脑的鼠标,有类似「按键精灵」的功能。

pyautogui 的有些方法,甚至比「按键精灵」更强大。

安装方法也很简单,使用 pip 即可。

用法很简单,截取登录按钮那里的图片,像这样:

Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

然后 pyautogui 就可以根据这张图片,找到按钮的坐标,然后操控电脑的鼠标进行点击。

就问你强大不?

直接修改代码,开搞!

淘宝针对 Selenium 的反爬,就这样解决了!

Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

3、清空购物车

已经登陆进来了,清空购物车就小菜一碟了!

还是按照之前的步骤,自行分析吧。

这里很简单,我就直接贴代码了。

运行效果:

Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

剩下的就是掏钱了。

扫码支付,只要你有钱,你甚至可以不看价格,直接程序写好支付密码,完成支付。

五、最后

  • Selenium 用着很方便,但是也会遇到反爬虫,需要根据情况自行分析。
  • 618 准备开始剁手啦!爱他/她,就帮他清空购物车!

Python3 网络爬虫(六):618,爱他/她,就清空他/她的购物车!

weinxin
微信公众号
分享技术,乐享生活:微信公众号搜索「JackCui-AI」关注一个在互联网摸爬滚打的潜行者。
Jack Cui

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

目前评论:22   其中:访客  15   博主  7

    • avatar - 来自天朝的朋友 QQ浏览器 Windows 10 上海市 上海市信息网络有限公司上海电信节点 0

      好像selenium没有必要担心反爬虫的机制,但是如果用requests库或者是urllib库的话,不设置代理池(这是去网上买的ip还是啥),大概率你电脑的ip都得被封
      我的个个人理解是,selenium更多是通过模拟鼠标点击浏览器按钮的操作,后台检测也像是真人操作一样,然而爬虫库则是强行访问网站所用来控制流量的一些私密接口
      请问一下,具体的反防爬虫策略应该是咋样