一 爬虫原理
1.什么是互联网?指的是由一堆网络设备,把一台台的计算机互联网到一起称之为互联网。2.互联网建立的目的?互联网建立的目的是为了数据的传递以及数据的共享,3.上网的全过程:一普通用户:打开浏览器一>往目标站点发送请求一>获取响应数据一-> 渲染到浏览器中-爬虫程序:模拟浏览器一->往目标站点发送请求一>获取响应数据一>提取有价值的数据一> 持久化到数据中4.浏览器发送的是什么请求? http协议的请求。 -客户端: 浏览器是一个软件->客户端的IP和端口 一服务端 https : / /www. jd. com/ www.jd. com (京东域名) -> DNS解析->京东服务端的IP和端口 客户端的ip和端口- - - >服务端的 IP和端口发送请求可以建 立链接获取相应数据 。5.爬虫的全过程发送请求获取响应数据 (只要往服务器发送请求,请求通过后会返回响应数据)-解析并提取数据(需要解析库: re、BeautifulSoup4、Xpath...)-保存到本地 (文件处理、数据库、MongoDB存储库) 二 Requests请求库1.安装与使用 --打开cmd --输入:pip3 intall requests
2.爬取视频
(1)获取所有视频的id和url
'''1、先往梨视频主页发送请求https://www.pearvideo.com/ 解析获取所有的视频id: video_ re.findall() 2、获取视频详细页url: '''import requestsimport re #正则,用于解析文本数据#1、先往梨视频主页发送请求response = requests.get('https://www.pearvideo.com/')print(response.text)# re正则匹配获取所有视频id# 参数一: 正则匹配规则# 参数二: 解析文本# 参数三: 匹配模式res_list = re.findall('
(2)爬取视频
import requestsimport re #正则,用于解析文本数据#1、先往梨视频主页发送请求response = requests.get('https://www.pearvideo.com/')#print(response.text)# re正则匹配获取所有视频id# 参数一: 正则匹配规则# 参数二: 解析文本# 参数三: 匹配模式res_list = re.findall('(.*?)',response.text,re.S)[0] print(video_name) #往视频url发送请求获取视频二进制流 v_response = requests.get(video_url) with open('%s.mp4'%video_name,'wb') as f: f.write(v_response.content) print(video_name,'视频爬取完成')
3.抓包分析
打开浏览器的开发者模式(检查) ----> 选中network找到访问的页面后缀xxx. html (响应文本)
1)请求url (访问的网站地址) 2)请求方式: GET: 直接发送请求获取数据 POST: 需要携带用户信息往目标地址发送请求 3)响应状态码: 2xx:成功 3xx:重定向 4xx:找不到资源 5xx:服务器错误4)请求头信息:
User-Agent:用户代理(证明是通过电脑设备及浏览器发送的请求) Cookies:登录用户真实信息(证明你目标网站的用户) Referer:.上一 次访问的url (证明你是从目 标网站跳转过来的) 5 )请求体: POST请求才会有请求体。 Form Data { 'user': 'YeZi' , 'pwd': '123 '} 4.爬取豆瓣电影.:从当前位置开始*: 查找所有
?:找到第一个不找
.*?:非贪婪匹配.*:贪婪匹配
(.*?):提取括号内的数据
电影排名、电影url、电影名称、导演-主演-类型、电影评分、评价人数、电影简介<div class="item">.*?<em class="">( .*?)</ em>
.*?<a href="(.*?)">.*?<span class="title">(.*?)</span>
.*?导演:(.*?)</p>.*?<span class="rating_ num.*?>( .*?)</span>.*?<span>(.*?)人评价</span> .*?<span class=" inq">(.*?)</span>
import requestsimport re# 爬虫三部曲# 1、发送请求def get_page(base_url): response = requests.get(base_url) return response# 2、解析文本def parse_index(text): res = re.findall('