【Python
往期精彩:
100多g Python 学习资源分享:
以前的爬虫文章:
下期分享预告:100多G精选Java学习资源(本周六)
前言:
正规妹纸图片网站、58同城房源信息、微信公众号文章,
分三期推送给大家
今天就是第一期:正规妹纸图片网站
本次爬虫主要用到的技术为:正则表达式基础学习链接
1.1 获取页面信息
1.2 发现获取页面内容出现乱码
2.2 爬取方式:简单 or 困难
1'''2author : 极简XksA3data : 2018.8.84goal : 分类爬取beautiful picture,保存到本地5'''6import re7import requests8# 爬取主页面:
10# 1. 发送http请求,获取主页面内容
11r_url = '/'
12html_code = requests.get(r_url)
13# 2. 设置页面编码为 gb2312
14html_code.encoding = 'gb2312'
15html_text = html_code.text
16# 3.1 获取链接
17pattern01 = r'<a href="(.*?)" title=".*?" class="tit" target="_blank">.*?</a> <span><u><a href="/" title="美女图片">美女图片</a>'
18beautiful_url = re.findall(pattern01, html_text)
19print(beautiful_url)
20print(len(beautiful_url))
21# 3.2 获取简介
22pattern02 = r'<a href=".*?" title=".*?" class="MMPic" target="_blank"><i><img src=".*?" width="190" height="280" alt="(.*?)" /></i></a>'
23beautiful_words = re.findall(pattern02, html_text)
24print(beautiful_words)
25print(len(beautiful_words))
运行结果:
1['.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html', '.html']
230
3['淘气撅小嘴青春美少女穿白色小短裤床上无限遐想性感诱人养眼照', '星光闪闪俏皮少女蓝色死水库连衣裙展现娇小玲珑身材图片', '卫生间元气少女运动装白丝长腿俏皮碎发嘟嘴卖萌写真图片', '白嫩女仆装美女乌黑长发漂亮侧颜居家制作蛋糕写真图片', '水灵灵校服美女稚嫩脸庞披肩短发清纯气质教室写真图片', '体育馆高马尾美女白色运动服高挑身材细长美腿写真图片', '芭蕾舞美女高束发髻吊带舞蹈服柔软身体翩翩起舞写真图片', '露齿大笑美女微卷短发牛仔背带裤精致锁骨床上甜美写真图片', '楼梯口美女浓眉大眼碎花吊带裙白里透红气质端庄写真图片', '马尾少女上扬的嘴角纤纤玉指穿运动服清爽诱人写真', '扎两小辫极品白丝袜美女美腿裸肩黄色系闺房写真', '美乳小翘臀白色吊带美女双眼灵动纯净甜美私房写真图片', '丸子头舞蹈美女吊带芭蕾装光滑裸背修长美腿身姿轻盈写真图片', '黑长直发美女橘色背心睡裙粉嫩香唇小巧鹅蛋脸迷人写真图片', '眼镜美女死水库泳衣笔直长腿精致锁骨曲线柔美私房写真图片', '露齿甜笑美少女白衣短裤空气刘海眉清目秀温柔气质写真图片', '床上白嫩香肩美女唇红齿白蕾丝吊带纤细长腿慵懒写真图片', '狐媚眼性感熟女红唇微张吊带睡衣雪白肌肤春光乍泄写真图片', '樱桃小嘴美女学生学院风校服可爱麻花辫皮肤光滑写真图片', '薄纱遮玉体大胸美眉美乳圆润有弹性红唇点睛诱惑写真', '好看的柠檬少女肌肤如牛奶般丝滑白嫩治愈系写真图片', '浓眉大眼童颜美女蕾丝套装白丝大长腿搞怪卖萌私房写真图片', '小巧脸蛋美女萝莉休闲运动服高束马尾柔软身段活力写真图片', '丸子头泳衣美女明眸皓齿白皙藕臂修长玉腿开怀大笑写真图片', '碎花裙治愈系少女清澈大眼精致编发温暖笑容闺房写真图片', '灿烂甜笑美女浓密卷发粉嫩脸蛋白瓷肌肤吹弹可破写真图片', '居家美女条纹吊带短裤秀圆润香肩光滑美腿吃西瓜写真图片', '尖下巴美女学生妹俏皮马尾辫小清新水手制服户外写真图片', '运动型美女白嫩肌肤撩长发骚动人心高清图片', '玉体通透吊带美女可爱苹果头好俏皮逆光唯美写真']
430
3.4 请求单个页面,正则匹配图片url
3.4.1 页面分析
1for i in range(len(beautiful_url)):2 # 4.1 请求单个页面3 picture_codes = requests.get(beautiful_url[i])4 picture_codes.encoding = 'gb2312'5 picture_words = picture_codes.text6 # 4.2 在页面中找到图片url7 # print(picture_words)8 pattern03 = r'<img alt="%s" src="(.*?)" />'%beautiful_words[i]9 picture_url = re.findall(pattern03, picture_words)
10 print(picture_url)
3.4.3 运行结果
1# 这里获取的并不是全部,而是每个妹纸的第一张图
2['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],
3['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg'],['.jpg']
3.5 每个妹纸页面内翻页,爬取所有的图片地址
3.5.1 页面分析
3.5.2 代码实现
1# 4.3 翻页爬取2# 4.3.1 获取翻页链接3pattern04 = r"<li><a href='(.*?)'>.*?</a></li>"4pictures_url = re.findall(pattern04, picture_words)5print(pictures_url)6print(pattern03)7# 4.3.2 翻页,获取图片地址8for j in range(len(pictures_url)):9 other_picture_url = r'/{0}'.format(pictures_url[j])
10 pictures_codes = requests.get(other_picture_url)
11 pictures_codes.encoding = 'gb2312'
12 pictures_words = pictures_codes.text
13 picture_02 = re.findall(pattern03, pictures_words)
14 picture_address.append(picture_02)
15print(picture_address)
3.5.3 运行结果
1['261848_2.html', '261848_3.html', '261848_4.html', '261848_5.html', '261848_6.html', '261848_7.html', '261848_8.html']
2<img alt="淘气撅小嘴青春美少女穿白色小短裤床上无限遐想性感诱人养眼照" src="(.*?)" />
3[['.jpg'], ['.jpg'], ['.jpg'], ['.jpg'],
4['.jpg'], ['.jpg'], ['.jpg'], ['.jpg']]
3.6 下载图片
3.6.1 专门写个下载图片函数
1# 下载图片函数2'''3folder_name : 分类文件夹名称,按图片简介4picture_address : 一组图片的链接5'''6def download_pictures(folder_name, picture_address):7 file_path = r'G:\Beautiful\{0}'.format(folder_name)8 if not os.path.exits(file_path):9 # 新建一个文件夹
10 os.mkdir(os.path.join(r'G:\Beautiful', folder_name))
11 # 下载图片保存到新建文件夹
12 for i in range(len(picture_address)):
13 # 下载文件(wb,以二进制格式写入)
14 with open(r'G:\Beautiful\{0}\0{1}.jpg'.format(folder_name,i+1), 'wb') as f:
15 # 根据下载链接,发送请求,下载图片
16 response = requests.get(picture_address[i][0])
17 f.write(response.content)
3.6.2 运行结果
希望大家根据在单个妹子网页翻页的方法(3.5),自己动手写出如何在主页面翻页,爬取更多妹纸图!
实现下图页面翻页 主页面翻页 最后留上源码地址
发布评论