亚洲免费在线-亚洲免费在线播放-亚洲免费在线观看-亚洲免费在线观看视频-亚洲免费在线看-亚洲免费在线视频

Python使用Selenium爬取淘寶異步加載的數據方法

系統 1816 0

淘寶的頁面很復雜,如果使用分析ajax或者js的方式,很麻煩

抓取淘寶‘美食'上面的所有食品信息

spider.py

            
#encoding:utf8
import re

from selenium import webdriver
from selenium.common.exceptions import TimeoutException

from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC

from bs4 import BeautifulSoup
from config import *
import pymongo

client=pymongo.MongoClient(MONGODB_URL)
db=client[MONGODB_DB]


##這里使用PhantomJS,并配置了一些參數
browser=webdriver.PhantomJS(service_args=SERVICE_ArGS)

##窗口的大小,不設置的話,默認太小,會有問題
browser.set_window_size(1400,900)

wait=WebDriverWait(browser, 10)


def search():

  print('正在搜索')
##容易出現超時的錯誤
  try:
##等待這兩個模塊都加載好
    browser.get("https://www.taobao.com")
    input = wait.until(
        EC.presence_of_element_located((By.CSS_SELECTOR, '#q'))
      )
    submit=wait.until(
        EC.element_to_be_clickable((By.CSS_SELECTOR, '#J_TSearchForm > div.search-button > button'))
      )

    ######這塊python2搞得鬼
    #input.send_keys('\u7f8e\u98df'.decode("unicode-escape"))
    input.send_keys(KEYWORD.decode("unicode-escape"))
    submit.click()

    total = wait.until(
        EC.presence_of_element_located((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.total'))
      )
    get_product()
    return total.text
  except TimeoutException:
    return search()

def next_page(page_number):

  print('翻頁'+str(page_number))
  try:
    input = wait.until(
          EC.presence_of_element_located((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.form > input'))
        )
    submit=wait.until(
        EC.element_to_be_clickable((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.form > span.btn.J_Submit'))
      )

    input.clear()
    input.send_keys(page_number)
    submit.click()

##判斷是否翻頁成功 高亮的是不是輸入的值,直接加在后面即可
    wait.until(EC.text_to_be_present_in_element((By.CSS_SELECTOR,'#mainsrp-pager > div > div > div > ul > li.item.active > span'),str(page_number)))

    get_product()

  except TimeoutException:
    return next_page(page_number)

#獲取產品信息
def get_product():
  products = wait.until(
    EC.presence_of_element_located((By.CSS_SELECTOR, '#mainsrp-itemlist .m-itemlist .items'))
        )
##拿到網頁
  html = browser.page_source
  soup = BeautifulSoup(html,'lxml')
  items = soup.select('#mainsrp-itemlist .m-itemlist .items .item.J_MouserOnverReq')#

  print('*************************到此*************')
  for item in items:
    img = item.select('.J_ItemPic.img')[0].get('src')
    price = item.select('.price.g_price.g_price-highlight > strong')[0].get_text()
    deal = item.select('.deal-cnt')[0].get_text()
    title= item.select('.row.row-2.title > a ')[0].get_text().strip() #:nth-of-type(3)
    shop = item.select('.row.row-3.g-clearfix > .shop > a > span:nth-of-type(2)')[0].get_text() 
    location = item.select('.location')[0].get_text()

    product={
      'img':img,
      'price':price,
      'deal':deal,
      'title':title,
      'shop':shop,
      'location':location
    }

#打印一下
    import json
    j = json.dumps(product)
    dict2 = j.decode("unicode-escape")
    print dict2

    save_to_mongo(product)


def save_to_mongo(product):
  try:
    if db[MONGODB_TABLE].insert(product):
      print('存儲到mongodb成功'+str(product))
  except Exception:
    print("存儲到mongodb失敗"+str(product))



def main():

  try:
    total=search()

    ##搜尋 re正則表達式
    s=re.compile('(\d+)')
    total=int(s.search(total).group(1))
    for i in range(2,total+1):
      next_page(i)
  except Exception:
    print('出錯')
  finally:
    browser.close()

if __name__ == '__main__':
  main()

          

config.py

            
MONGODB_URL='localhost'
MONGODB_DB='taobao'
MONGODB_TABLE='meishi'

SERVICE_ArGS=['--load-images=false','--disk-cache=true']

##就是美食這兩個字,直接用漢字會報錯
KEYWORD='\u7f8e\u98df'

          

以上這篇Python使用Selenium爬取淘寶異步加載的數據方法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持腳本之家。


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 国产成人综合自拍 | 亚洲视频中文字幕在线 | 欧美另类色 | 亚洲成a人片在线观看精品 亚洲成a人一区二区三区 | 欧美日韩国产成人综合在线影院 | 国产成人综合一区人人 | xxxx性xx另类 | 久热re这里只有精品视频 | 亚欧成人一区二区 | 国产精品久久久久乳精品爆 | 日本一级一片免在线观看 | 国产一区二区三区高清视频 | 视色tv| 国产免费久久精品44 | 日韩欧美在线综合网高清 | 在线毛片免费观看 | 中文在线视频 | 久久视频这里只有精品 | aaa级片 | 中文字幕在线免费观看视频 | 久久亚洲精品久久久久 | 国产成人综合亚洲一区 | 伊人95| 久久香蕉国产线看观看8青草 | 国产精品久久久久久搜索 | 国产精品国偷自产在线 | 久久久99精品免费观看精品 | 91精品日韩 | 午夜性爽视频男人的天堂在线 | ab毛片 | 久久人与动人物a级毛片 | 国内久久久久久久久久 | 9984四虎永久免费网站 | 看片亚洲 | 操久在线 | 看久久 | 久久国产精品夜色 | 久久精品66 | 亚洲毛片免费视频 | 中文字幕色综合久久 | 成人免费一级毛片在线播放视频 |