五月综合缴情婷婷六月,色94色欧美sute亚洲线路二,日韩制服国产精品一区,色噜噜一区二区三区,香港三级午夜理伦三级三

您現(xiàn)在的位置: 365建站網(wǎng) > 365文章 > python中socket error 10054的解決方法

python中socket error 10054的解決方法

文章來源:365jz.com     點擊數(shù):2650    更新時間:2018-06-08 10:51   參與評論

一個連接被對方重設(shè)。一個建立的連接被遠程主機強行關(guān)閉,若遠程主機上的進程異常終止運行(由于內(nèi)存沖突或硬件故障),或者針對套接字執(zhí)行了一次強行關(guān)閉,便會產(chǎn)生10054錯誤.

在寫一個傳輸文件的socket程序時,客戶端實現(xiàn)了和服務(wù)端斷開連接后重新自動連接功能,但是連接上服務(wù)端后再重啟服務(wù)端,客戶端出現(xiàn)了Errno 10054異常。出錯的代碼如下:

client.py:

import socket

ip = '192.168.0.124'
port = 8000
s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)

def run():
    while True:
        try:
            s.connect((ip, port))
            # do something:send, recv
        except socket.error, e:
            print "get connect error as", e
            continue
    s.close()
    
if __name__ == '__main__':
    run()



解決方案:調(diào)整 s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)語句的位置,每次重新連接都生成新的socket實例。

client.py:

import socket

ip = '192.168.0.124'
port = 8000

def run():
    while True:
        s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
        try:
            s.connect((ip, port))
            # do something:send, recv
        except socket.error, e:
            print "get connect error as", e
            continue
    s.close()

if __name__ == '__main__':
    run()


python socket.error: [Errno 10054] 遠程主機強迫關(guān)閉了一個現(xiàn)有的連接。問題解決方案:

前幾天使用python讀取網(wǎng)頁。因為對一個網(wǎng)站大量的使用urlopen操作,所以會被那個網(wǎng)站認定為攻擊行為。有時就不再允許下載。導(dǎo)致urlopen()后,request.read()一直卡死在那里。最后會拋出errno 10054.

這個錯誤是connection reset by peer.也就是傳說的遠端主機重置了此連接。原因可能是socket超時時間過長;也可能是request = urllib.request.urlopen(url)之后,沒有進行request.close()操作;也可能是沒有sleep幾秒,導(dǎo)致網(wǎng)站認定這種行為是攻擊。

具體解決方案如下面的代碼:

import socket  
import time  
timeout = 20    
socket.setdefaulttimeout(timeout)#這里對整個socket層設(shè)置超時時間。后續(xù)文件中如果再使用到socket,不必再設(shè)置  
sleep_download_time = 10  
time.sleep(sleep_download_time) #這里時間自己設(shè)定  
request = urllib.request.urlopen(url)#這里是要讀取內(nèi)容的url  
content = request.read()#讀取,一般會在這里報異常  
request.close()#記得要關(guān)閉


因為urlopen之后的read()操作其實是調(diào)用了socket層的某些函數(shù)。所以設(shè)置socket缺省超時時間,就可以讓網(wǎng)絡(luò)自己斷掉。不必在read()處一直等待。

當(dāng)然你也可以再外層再寫幾個try,except,例如:

try:  
    time.sleep(self.sleep_download_time)  
    request = urllib.request.urlopen(url)  
    content = request.read()  
    request.close()  
      
except UnicodeDecodeError as e:  
         
    print('-----UnicodeDecodeError url:',url)  
      
except urllib.error.URLError as e:  
    print("-----urlError url:",url)  
  
except socket.timeout as e:  
    print("-----socket timout:",url)

 


一般來說就莫有問題了。我測試了幾千個網(wǎng)頁的下載,然后才說出此話。不過如果是下載成千上萬的,我做了下測試,ms還是會跳出這個異常??赡苁莟ime.sleep()的時間太短,也可能是網(wǎng)絡(luò)突然中斷。我使用urllib.request.retrieve()測試了一下,發(fā)現(xiàn)不停的下載數(shù)據(jù),總會有失敗的情況出現(xiàn)。

簡單的處理方法是:首先參照的我的文章:python檢查點簡單實現(xiàn) 。先做一個檢查點。然后將以上會跑出異常的那段代碼while True一下。參見下面的偽代碼:

def Download_auto(downloadlist,fun,sleep_time=15):  
    while True:          
        try: # 外包一層try   
            value = fun(downloadlist,sleep_time) # 這里的fun是你的下載函數(shù),我當(dāng)函數(shù)指針傳進來。  
           # 只有正常執(zhí)行方能退出。  
            if value == Util.SUCCESS:  
                break  
        except : # 如果發(fā)生了10054或者IOError或者XXXError  
            sleep_time += 5 #多睡5秒,重新執(zhí)行以上的download.因為做了檢查點的緣故,上面的程序會從拋出異常的地方繼續(xù)執(zhí)行。防止了因為網(wǎng)絡(luò)連接不穩(wěn)定帶來的程序中斷。  
            print('enlarge sleep time:',sleep_time)


 

不過對于找不到相應(yīng)的網(wǎng)頁,又要做另外的一番處理:

# 打印下載信息  
def reporthook(blocks_read, block_size, total_size):  
    if not blocks_read:  
        print ('Connection opened')  
    if total_size < 0:  
        print ('Read %d blocks' % blocks_read)  
    else:  
        # 如果找不到,頁面不存在,可能totalsize就是0,不能計算百分比  
        print('downloading:%d MB, totalsize:%d MB' % (blocks_read*block_size/1048576.0,total_size/1048576.0))  
        
  
def Download(path,url):  
#url = 'http://downloads.sourceforge.net/sourceforge/alliancep2p/Alliance-v1.0.6.jar'  
    #filename = url.rsplit("/")[-1]  
    try:  
    # python自帶的下載函數(shù)  
        urllib.request.urlretrieve(url, path, reporthook)  
    except IOError as e: # 如果找不到,好像會引發(fā)IOError。  
        print("download ",url,"/nerror:",e)  
    print("Done:%s/nCopy to:%s" %(url,path))


我用的是python2.7   我搜網(wǎng)上10054錯誤解決方法的時候發(fā)現(xiàn),大部分文章都是以python3為基礎(chǔ)的,對于python2不適用。

python socket.error: [Errno 10054]  遠程主機強迫關(guān)閉了一個現(xiàn)有的連接。

原因:服務(wù)器發(fā)現(xiàn)你的爬蟲行為了,所有強制斷開鏈接了

解決辦法:  服務(wù)器知道你是爬蟲,加headers, 模擬瀏覽器agent;head中有一個user-agent每次都換不同的模擬代理


#coding:utf-8
import urllib2
url ='http://www.baidu.com'  #例子
headers = {'User-agent' : 'Mozilla/5.0 (Windows NT 6.2; WOW64; rv:22.0) Gecko/20100101 Firefox/22.0'}
request = urllib2.Request(url, headers = headers)
response = urllib2.urlopen(request,timeout=20)
if response.getcode()==200:
    print response.read()


一般請求服務(wù)器爬取網(wǎng)頁時,我都不加headers的,但是我最近再爬取之前爬取的網(wǎng)頁時,就出現(xiàn)了404錯誤,可是發(fā)現(xiàn)了我的爬蟲行為。加了headers之后,就又可以正常爬取了。

 

總結(jié):   

求助 python爬蟲 requests的get出現(xiàn)10054錯誤 遠程主機強迫關(guān)閉了一個現(xiàn)有的連接

1、head中有一個user-agent每次都換不同的模擬代理
2、測試最大訪問時間短,每秒多少次請求會出現(xiàn)中斷,然后sleep(200)毫秒
3、每次請求中斷上一次鏈接,keep-live=false 試試看,不然就是換IP訪問


如對本文有疑問,請?zhí)峤坏浇涣髡搲?,廣大熱心網(wǎng)友會為你解答??! 點擊進入論壇

發(fā)表評論 (2650人查看,0條評論)
請自覺遵守互聯(lián)網(wǎng)相關(guān)的政策法規(guī),嚴禁發(fā)布色情、暴力、反動的言論。
昵稱:
最新評論
------分隔線----------------------------

其它欄目

· 建站教程
· 365學(xué)習(xí)

業(yè)務(wù)咨詢

· 技術(shù)支持
· 服務(wù)時間:9:00-18:00
365建站網(wǎng)二維碼

Powered by 365建站網(wǎng) RSS地圖 HTML地圖

copyright © 2013-2024 版權(quán)所有 鄂ICP備17013400號