0x00前言eval是Python用于執行python表達式的一個內置函數,使用eval,可以很方便的將字符串動態執行。比如下列代碼:>>>eval("1+2")>>>eval("[xforxinrange(10)]")[0,1,2,3,4,5,6,7,8,9]當內存中的內置模塊含有os的話,eval同樣可以做到命令執行:>>>importos>>>eval("os.system('whoami')")win-20140812chj\administrat
系統 2019-09-27 17:53:02 1773
python入門之語句,包括if語句、while語句、for語句,供python初學者參考。//if語句例子name='peirong';ifname=='peirong':print'thisispeirong';elifname=='maojun':print'thisismaojun';else:print'others';//while語句i=0;a=range(10);whilei
系統 2019-09-27 17:52:55 1773
如果直接從生成驗證碼的頁面把驗證碼下載到本地后識別,再構造表單數據發送的話,會有一個驗證碼同步的問題,即請求了兩次驗證碼,而識別出來的驗證碼并不是實際需要發送的驗證碼。有如下幾種方法解決。法1:用session:mysession=requests.Session()login_url='http://xxx.com'checkcode_url='http://yyy.com'html=mysession.get(login_url,timeout=60*
系統 2019-09-27 17:52:42 1773
Python中的json對象實際是一個字典結構,用于存儲和交換信息,導入json模塊:importjson1,把字符串轉換為jsonjson的load()方法用于把josn格式的字符串轉換為json對象,這實際上是一個字典結構:json_string='{"name":"John","age":30,"city":"NewYork"}'#parsestringtojsonjson_obj=json.loads(json_string)2,把字典轉換為jso
系統 2019-09-27 17:52:33 1773
在Python2和Python3中都提供print()方法來打印信息,但兩個版本間的print稍微有差異主要體現在以下幾個方面:1.python3中print是一個內置函數,有多個參數,而python2中print是一個語法結構;2.Python2打印時可以不加括號:print'helloworld',Python3則需要加括號print("helloworld")3.Python2中,input要求輸入的字符串必須要加引號,為了避免讀取非字符串類型發生的
系統 2019-09-27 17:52:30 1773
前言學習一個庫的最好的方式是了解這個庫的源碼和組成原理,有時候源碼可能會略顯生澀,這時候我們想通過查看文檔來了解,所以我們可以通過輸出庫自帶的描述文檔來了解一個庫。Numpy和Scipy模塊numpy提供了數組對象,面向的任何使用者。scipy在numpy的基礎上,面向科學家和工程師,提供了更為精準和廣泛的函數。scipy幾乎實現numpy的所有函數,一般而言,如果scipy和numpy都有這個函數的話,應該用scipy中的版本,因為scipy中的版本往往
系統 2019-09-27 17:52:27 1773
我瀏覽了下網上關于怎么Python爬蟲入門的文章,發現有的還在教人用urllib來發送http請求,這真是有點誤人子弟了。本文也不提倡剛開始去學習第三方爬蟲框架,我想把要學習的知識簡化一些,讓入門更快速,更專注。Python爬蟲入門:技能真要說Python爬蟲需要具備什么知識,那就是你得會Python,哈哈。其他的知識就是你能熟練運用Python的幾個第三方庫,當然你具備一點htmljavascriptcsshttp協議可以提高你的解決問題的效率,但這是一
系統 2019-09-27 17:52:27 1773
1.常用模塊#連接數據庫connect()函數創建一個新的數據庫連接對話并返回一個新的連接實例對象PG_CONF_123={'user':'emma','port':123,'host':'192.168.1.123','password':'emma','database':'dbname'}conn=psycopg2.connect(**PG_CONF_123)#打開一個操作整個數據庫的光標連接對象可以創建光標用來執行SQL語句cur=conn.cur
系統 2019-09-27 17:52:21 1773
本文實例講述了Python基于BeautifulSoup和requests實現的爬蟲功能。分享給大家供大家參考,具體如下:爬取的目標網頁:http://www.qianlima.com/zb/area_305/這是一個招投標網站,我們使用python腳本爬取紅框中的信息,包括鏈接網址、鏈接名稱、時間等三項內容。使用到的Python庫:BeautifulSoup、requests代碼如下:#-*-coding:utf-8-*-importrequestsfr
系統 2019-09-27 17:52:10 1773
對一名開發者來說最糟糕的情況,莫過于要弄清楚一個不熟悉的應用為何不工作。有時候,你甚至不知道系統運行,是否跟原始設計一致。在線運行的應用就是黑盒子,需要被跟蹤監控。最簡單也最重要的方式就是記錄日志。記錄日志允許我們在開發軟件的同時,讓程序在系統運行時發出信息,這些信息對于我們和系統管理員來說都是有用的。就像為將來的程序員寫代碼文檔一樣,我們應該讓新軟件產生足夠的日志供系統的開發者和管理員使用。日志是關于應用運行狀態的系統文件的關鍵部分。給軟件加日志產生句時
系統 2019-09-27 17:52:07 1773