当前位置:网站首页>Python爬蟲實戰詳解:爬取圖片之家
Python爬蟲實戰詳解:爬取圖片之家
2020-11-06 01:17:00 【itread01】
前言
本文的文字及圖片來源於網路,僅供學習、交流使用,不具有任何商業用途,版權歸原作者所有,如有問題請及時聯絡我們以作處理
如何使用python去實現一個爬蟲?
- 模擬瀏覽器
請求並獲取網站資料
在原始資料中提取我們想要的資料 資料篩選
將篩選完成的資料做儲存
完成一個爬蟲需要哪些工具
- Python3.6
- pycharm 專業版
目標網站
圖片之家
https://www.tupianzj.com/
爬蟲程式碼
匯入工具
python 自帶的標準庫
import ssl
系統庫 自動建立儲存資料夾
import os
下載包
import urllib.request
網路庫 第三方包
import requests
網頁選擇器
from bs4 import BeautifulSoup
預設請求https網站不需要證書認證
ssl._create_default_https_context = ssl._create_unverified_context
模擬瀏覽器
headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36', }
自動建立資料夾
if not os.path.exists('./插畫素材/'): os.mkdir('./插畫素材/') else: pass
請求操作
url = 'https://www.tupianzj.com/meinv/mm/meizitu/' html = requests.get(url, headers=headers).text
對頁面原始資料做資料提取
soup = BeautifulSoup(html, 'lxml') images_data = soup.find('ul', class_='d1 ico3').find_all_next('li') for image in images_data: image_url = image.find_all('img') for _ in image_url: print(_['src'], _['alt'])
下載
try: urllib.request.urlretrieve(_['src'], './插畫素材/' + _['alt'] + '.jpg') except: pass
效果圖
版权声明
本文为[itread01]所创,转载请带上原文链接,感谢
https://www.itread01.com/content/1604499424.html
边栏推荐
猜你喜欢
随机推荐
tensorflow之tf.tile\tf.slice等函数的基本用法解读
不吹不黑,跨平臺框架AspNetCore開發實踐雜談
使用NLP和ML来提取和构造Web数据
drf JWT認證模組與自定製
DTU连接经常遇到的问题有哪些
Python machine learning algorithm: linear regression
连肝三个通宵,JVM77道高频面试题详细分析,就这?
iptables基礎原理和使用簡介
6.8 multipartresolver file upload parser (in-depth analysis of SSM and project practice)
python 保存list数据
你的财务报告该换个高级的套路了——财务分析驾驶舱
Anomaly detection method based on SVM
用Python构建和可视化决策树
从零学习人工智能,开启职业规划之路!
5.5 ControllerAdvice注解 -《SSM深入解析与项目实战》
接口压力测试:Siege压测安装、使用和说明
【新閣教育】窮學上位機系列——搭建STEP7模擬環境
普通算法面试已经Out啦!机器学习算法面试出炉 - kdnuggets
windows10 tensorflow(二)原理实战之回归分析,深度学习框架(梯度下降法求解回归参数)
微信小程序:防止多次点击跳转(函数节流)