亚洲免费在线-亚洲免费在线播放-亚洲免费在线观看-亚洲免费在线观看视频-亚洲免费在线看-亚洲免费在线视频

21、 Python快速開發分布式搜索引擎Scrapy精講—爬蟲數據保存

系統 1868 0

【百度云搜索,搜各種資料:http://www.bdyss.cn】

【搜網盤,搜各種資料:http://www.swpan.cn】

注意:數據保存的操作都是在pipelines.py文件里操作的

將數據保存為json文件

spider是一個信號檢測

          
            #?-*-?coding:?utf-8?-*-

#?Define?your?item?pipelines?here
#
#?Don't?forget?to?add?your?pipeline?to?the?ITEM_PIPELINES?setting
#?See:?http://doc.scrapy.org/en/latest/topics/item-pipeline.html
from?scrapy.pipelines.images?import?ImagesPipeline??#導入圖片下載器模塊
import?codecs
import?json

class?AdcPipeline(object):??????????????????????#定義數據處理類,必須繼承object
????def?__init__(self):
????????self.file?=?codecs.open('shuju.json',?'w',?encoding='utf-8')??#初始化時打開json文件
????def?process_item(self,?item,?spider):???????#process_item(item)為數據處理函數,接收一個item,item里就是爬蟲最后yield?item?來的數據對象
????????#?print('文章標題是:'?+?item['title'][0])
????????#?print('文章縮略圖url是:'?+?item['img'][0])
????????#?print('文章縮略圖保存路徑是:'?+?item['img_tplj'])??#接收圖片下載器填充的,圖片下載后的路徑

????????#將數據保存為json文件
????????lines?=?json.dumps(dict(item),?ensure_ascii=False)?+?'\n'???#將數據對象轉換成json格式
????????self.file.write(lines)??????????#將json格式數據寫入文件
????????return?item
def?spider_closed(self,spider):?????#創建一個方法繼承spider,spider是一個信號,當前數據操作完成后觸發這個方法
????????self.file.close()???????????????#關閉打開文件

class?imgPipeline(ImagesPipeline):??????????????????????#自定義一個圖片下載內,繼承crapy內置的ImagesPipeline圖片下載器類
????def?item_completed(self,?results,?item,?info):??????#使用ImagesPipeline類里的item_completed()方法獲取到圖片下載后的保存路徑
????????for?ok,?value?in?results:
????????????img_lj?=?value['path']?????#接收圖片保存路徑
????????????#?print(ok)
????????????item['img_tplj']?=?img_lj??#將圖片保存路徑填充到items.py里的字段里
????????return?item????????????????????#將item給items.py?文件的容器函數

????#注意:自定義圖片下載器設置好后,需要在
          
        

將數據保存到數據庫

我們使用一個ORM框架sqlalchemy模塊,保存數據

數據庫操作文件

          
            #!/usr/bin/env?python
#?-*-?coding:utf-8?-*-

from?sqlalchemy.ext.declarative?import?declarative_base
from?sqlalchemy?import?Column
from?sqlalchemy?import?Integer,?String,?TIMESTAMP
from?sqlalchemy?import?ForeignKey,?UniqueConstraint,?Index
from?sqlalchemy.orm?import?sessionmaker,?relationship
from?sqlalchemy?import?create_engine

#配置數據庫引擎信息
ENGINE?=?create_engine("mysql+pymysql://root:279819@127.0.0.1:3306/cshi?charset=utf8",?max_overflow=10,?echo=True)

Base?=?declarative_base()???????#創建一個SQLORM基類

class?SendMsg(Base):????????????#設計表
????__tablename__?=?'sendmsg'

????id?=?Column(Integer,?primary_key=True,?autoincrement=True)
????title?=?Column(String(300))
????img_tplj?=?Column(String(300))

def?init_db():
????Base.metadata.create_all(ENGINE)????????#向數據庫創建指定表

def?drop_db():
????Base.metadata.drop_all(ENGINE)??????????#向數據庫刪除指定表

def?session():
????cls?=?sessionmaker(bind=ENGINE)?????????#創建sessionmaker類,操作表
????return?cls()

#?drop_db()?????????#刪除表
#?init_db()?????????#創建表
          
        

pipelines.py文件

          
            #?-*-?coding:?utf-8?-*-

#?Define?your?item?pipelines?here
#
#?Don't?forget?to?add?your?pipeline?to?the?ITEM_PIPELINES?setting
#?See:?http://doc.scrapy.org/en/latest/topics/item-pipeline.html
from?scrapy.pipelines.images?import?ImagesPipeline??#導入圖片下載器模塊
from?adc?import?shujuku?as?ORM??????????????????????#導入數據庫文件

class?AdcPipeline(object):??????????????????????#定義數據處理類,必須繼承object
????def?__init__(self):
????????ORM.init_db()???????????????????????????#創建數據庫表
????def?process_item(self,?item,?spider):???????#process_item(item)為數據處理函數,接收一個item,item里就是爬蟲最后yield?item?來的數據對象
????????print('文章標題是:'?+?item['title'][0])
????????print('文章縮略圖url是:'?+?item['img'][0])
????????print('文章縮略圖保存路徑是:'?+?item['img_tplj'])??#接收圖片下載器填充的,圖片下載后的路徑

????????mysq?=?ORM.session()
????????shuju?=?ORM.SendMsg(title=item['title'][0],?img_tplj=item['img_tplj'])
????????mysq.add(shuju)
????????mysq.commit()
????????return?item

class?imgPipeline(ImagesPipeline):??????????????????????#自定義一個圖片下載內,繼承crapy內置的ImagesPipeline圖片下載器類
????def?item_completed(self,?results,?item,?info):??????#使用ImagesPipeline類里的item_completed()方法獲取到圖片下載后的保存路徑
????????for?ok,?value?in?results:
????????????img_lj?=?value['path']?????#接收圖片保存路徑
????????????#?print(ok)
????????????item['img_tplj']?=?img_lj??#將圖片保存路徑填充到items.py里的字段里
????????return?item????????????????????#將item給items.py?文件的容器函數

????#注意:自定義圖片下載器設置好后,需要在
          
        

【轉載自:http://www.lqkweb.com】


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 99热碰| 在线精品日韩一区二区三区 | 亚洲欧美综合久久 | 精品久久洲久久久久护士 | 香蕉久热 | 天天躁狠狠躁 | 大乳欲妇三级一区二区三区 | 骚黄视频| 国产成人久久久精品一区二区三区 | 欧美精品亚洲精品日韩一区 | 99久久免费精品国产免费高清 | 亚洲综合色就色手机在线观看 | 亚洲精品视频网 | 国产精品久久久精品视频 | 亚洲国产美女视频 | 青青草a免费线观a | 免费观看欧美精品成人毛片能看的 | 欧美成人免费mv在线播放 | 免费污视频在线观看 | 久久这里只有精品1 | 亚洲国产成人久久精品动漫 | 国产精品日韩欧美一区二区 | 欧美图片一区 | 国产一区a| 四虎精品成人免费影视 | 免费不卡中文字幕在线 | 天天天天色 | 在线观看亚洲视频 | 国产亚洲精彩视频 | 欧产日产国产精品专区 | 热99这里有精品综合久久 | 中文字幕日韩高清 | 精品亚洲成a人在线播放 | 免费国产视频在线观看 | 亚洲欧美精品 | 亚洲天堂久久精品成人 | 国产三级精品三级男人的天堂 | 欧美a视频 | 久久99国产亚洲精品观看 | 久久日本经典片免费看 | 亚洲阿v天堂在线观看2017 |