用python爬取博客的图片链接(入个门)
目录
前言
学了一个晚上学了一点点皮毛可能还有很多地方有不足但是思想大概搞懂了(python的re库把我脑袋搞晕了QAQ)
这个大佬轻喷,有什么改进可以指出十分感谢
请求网页的源代码
定义头文件
许多网站为了防止有人恶意爬取,网站就会做反爬取
这个时候就要自己定义头文件,以便于可以正常显示源代码
比如csdn不定义User-Agent返回的源代码就为空
按f12打开控制台,打开网络(network)刷新网页,随便点击一个链接在请求的文件里有
一般用到的就是User-Agent,host,cookie,Accept和connection
这边我就定义一个头文件变量
1 | headers_dict={ |
爬取源代码
然后开始爬取网页源代码
并且把源代码存起来
1 | response = requests.get('https://blog.csdn.net/mumuemhaha/article/details/131031052?spm=1001.2014.3001.5501',headers=headers_dict) |
开始选取所需要的部分
用PyQuery选择相应的区块(分支可看可不看)
PyQuery可以把源代码中的<div class=" a_1">…</div>和<ul id = "b_1 "></ul>,<c_1>和</c_1>的部分筛选出来
可以用
doc = pq(html)
print(doc(‘.a_1 #b_1’).find(“c_1”))
其中a_1代表的就是.(英文句号)+div class=" "空的值
b_1代表的就是ul id = " "空的值
c_1代表得到就是两个标签名称上面就"<li>"
优点
是语法相对比较简单
可以快速选择所需要的区域
缺点
只凭这个无法定位标签栏里面的元素,尤其是图片链接
开始定位链接的位置(使用正则表达式)
这时候就要用re库来选择连接内容了
这里选择一个简单正则表达式的方便理解
1 | ex = '.*? src="(.*?)" .*?' |
这里.*?代表的随机的值
而加个()就是要选择的值
这里的意思就是所有src="x_1"中x_1的值
然后调用re.findall()进行选择并且打印(或者存入txt文件也行)
1 | ex = 'src="(.*?)"' |
出现的奇怪的问题
1 | Traceback (most recent call last): |
这里就是因为PyQuery选取的区域格式不是string的
request获取的源代码时"str"而PyQuery选取出来的区域是pyquery.pyquery.PyQuery不过问题不大
强制格式转换就行
1 | html_1=str(html_1) |
所有源代码(包括我验证PyQuery是不是string的语句也在上面)
1 | import requests |