亚洲免费在线-亚洲免费在线播放-亚洲免费在线观看-亚洲免费在线观看视频-亚洲免费在线看-亚洲免费在线视频

Python 50行爬蟲抓取并處理圖靈書目過程詳解

系統 1867 0

前言

使用 requests進行爬取、BeautifulSoup進行數據提取。

主要分成兩步: 第一步是解析圖書列表頁,并解析出里面的圖書詳情頁鏈接。 第二步是解析圖書詳情頁,提取出感興趣的內容,本例中根據不同的數據情況,采用了不同的提取方法,總的感覺就是BeautifulSoup用起來很方便

以下是幾個典型HTML內容提取的Python代碼片段

1、提取詳情頁鏈接

列表頁中的詳情頁鏈接片段

提取詳情頁鏈接的Python代碼

            
# bs是BeautifulSoup的instance
bs.select('.name')
for 詳情鏈接信息 in bs.select('.name'):
 # 提取出鏈接
 print(詳情鏈接信息.a.get('href'))
          

2、提取詳情頁中的圖書名稱

詳情頁中圖書名稱HTML代碼

            

深度學習入門:基于Python的理論與實現

提取圖書名稱的Python代碼

            
# 因為提取出來的文字前后還帶了很多空格,所以要用strip去掉 
bs.h2.get_text().strip()
          

3、提取電子書價格信息

詳情頁中電子書價格HTML代碼

            
電子書
¥29.99

提取電子書價格的Python代碼

            
# 因為不是每本書都有電子書,所以要判斷一下
有電子書 = bs.find("dt", text="電子書")
if 有電子書:
 價格=有電子書.next_sibling.next_sibling.find("span", {"class": "price"}).get_text().strip()[1:]
 print(float(價格))
          

完整代碼

            
# ituring.py,python3版本,默認只抓兩頁,可以通過啟動參數控制要抓的列表頁范圍
import sys
import requests
import time
from bs4 import BeautifulSoup

def 輸出圖書列表中的詳情鏈接(bs):
 # 找到頁面中所有的 
            

...

for 詳情鏈接信息 in bs.select('.name'): # 提取出鏈接 yield 詳情鏈接信息.a.get('href') def 獲取圖書詳情(鏈接): 詳情頁 = requests.get('http://www.ituring.com.cn%s' %鏈接) if 詳情頁.ok: bs = BeautifulSoup(詳情頁.content, features="html.parser") 圖書 = {} 圖書['title'] = bs.h2.get_text().strip() 圖書['status'] = bs.find("strong", text="出版狀態").next_sibling 有定價 = bs.find("strong", text="定  價") if 有定價: 圖書['price'] = 有定價.next_sibling 有電子書 = bs.find("dt", text="電子書") if 有電子書: 圖書['ePrice'] = float(有電子書.next_sibling.next_sibling.find("span", {"class": "price"}).get_text().strip()[1:]) 有出版日期 = bs.find("strong", text="出版日期") if 有出版日期: 圖書['date'] = 有出版日期.next_sibling 圖書['tags'] = [] for tag in bs.select('.post-tag'): 圖書['tags'].append(tag.string) return 圖書 else: print('? 詳情頁 http://www.ituring.com.cn%s' %鏈接) def 解析圖書列表頁(起始頁, 終止頁): for 頁序號 in range(起始頁 - 1, 終止頁): # 逐一訪問圖書列表頁面 列表頁 = requests.get('http://www.ituring.com.cn/book?tab=book&sort=new&page=%s' %頁序號) if 列表頁.ok: # 創建 BeautifulSoup 的 instance bs = BeautifulSoup(列表頁.content, features="html.parser") # 提取 列表頁中的 詳情頁鏈接,并逐一分析 for 詳情頁面鏈接 in 輸出圖書列表中的詳情鏈接(bs): 圖書信息 = 獲取圖書詳情(詳情頁面鏈接) # 得到的圖書信息,按照自己的需求去處理吧 print(圖書信息) # 抓完一本書休息一下 time.sleep(0.1) print('? 第%s頁獲取完畢\n\t' %(頁序號 + 1)) else: print('? 第%s頁獲取出錯\n\t' %(頁序號 + 1)) if __name__ == '__main__': # 默認圖書列表起始頁 和 終止頁 起始圖書列表頁碼 = 1 終止圖書列表頁碼 = 2 # ?? 改改代碼頁可以實現自動獲得最后一頁 # 獲取輸入參數; ??此處未對輸入參數的類型做檢測 if(len(sys.argv)==2): # 只有一個參數時,輸入的是終止頁碼,起始頁碼默認為 0 終止圖書列表頁碼 = int(sys.argv[1]) if(len(sys.argv)==3): # 有兩個參數時, 第一個參數是起始頁碼,第二個參數是終止頁碼 起始圖書列表頁碼 = int(sys.argv[1]) 終止圖書列表頁碼 = int(sys.argv[2]) 解析圖書列表頁(起始圖書列表頁碼, 終止圖書列表頁碼)

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦?。?!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 国产欧美日韩一区二区三区视频 | 四虎最新影院 | 日韩一区二区三 | 热灸灸这里只有精品 | 亚洲欧美一区二区三区在饯 | 亚洲精品在线网 | 国产精品一久久香蕉产线看 | 女人用粗大自熨喷水在线视频 | 九九热精品视频在线观看 | 日韩欧美h | 亚洲精品第一国产综合高清 | 怡红院成人永久免费看 | 麻豆精品视频 在线视频 | 久久精品国产午夜伦班片 | 最近中文字幕精彩视频 | 99re这里有精品 | 天天干天天舔 | 亚洲精品蜜桃久久久久久 | 亚洲图片欧美另类 | 97精品久久天干天天蜜 | 久久精品国产日本波多麻结衣 | 99视频免费在线 | 播放一级录像片 | 国产成人在线看 | 天天干夜夜爽天天操夜夜爽视频 | 欧美日本综合一区二区三区 | 四虎影院4hu | 国产福利视频一区美女 | 国产精品二区页在线播放 | 一区二区三区日韩 | 亚洲精品久久精品h成人 | 欧美性猛交99久久久久99 | 亚洲一区免费视频 | 成人免费视频一区二区 | 日本三级中文字幕 | 国产精品欧美亚洲 | 久久亚洲福利 | 亚洲综合一区二区三区四区 | 日韩一区二区三区视频在线观看 | 久久久这里有精品 | 欧美色国 |