python urllib2 抓取网页 如何捕获各种异常呢
我用python的 urllib2来抓取网页 怎么才能捕获各种返回的异常呢?
有如下代码:
Python code:
import urllib2
if __name__ == '__main__':
url = 'http://hh'
try:
urllib2.urlopen(url, timeout=5)
except URLError, e:
print e.reason
我捕获异常 却提示这种错误:
except URLError, e:
NameError: name 'URLError' is not defined
是怎么回事 为什么说我未定义呢?
该怎么改才可以呢
还有 麻烦告知一下 网页各种返回错误怎么捕获呢
可能是没导入合适的库
不是有个更好的例子么
from urllib2 import Request, urlopen, URLError, HTTPError
req = Request(someurl)
try:
response = urlopen(req)
except HTTPError, e:
print 'The server couldn\'t fulfill the request.'
print 'Error code: ', e.code
except URLError, e:
print 'We failed to reach a server.'
print 'Reason: ', e.reason
else:
# everything is fine
相关问答:
最近用python写一个程序,总是异常退出,但是却没法用try..except来捕捉
由于没法发图片,所以把相关的信息打印出来
异常的信息大致如下:
python.exe遇到问题需要关闭。我们对此引起的不便表示抱歉 ......
python和pyqt以及Eric4都已经配置好了,打开Eric4写个python程序比如简单的
print“hello,world”,怎么编译运行了,Start菜单的所有命令都出现和图中差不多的对话框,应当怎么运行了?
求大家指教
没有人用 ......
我现在有一个需求是这样的
我有2个类
class A
{
public:
int val;
}
class B
{
public:
A a
}
现在在脚本中只能
b.a.val = 1
我在python中想使用
b.a = 1
......
发现python2.6
import httplib
conn=httplib.HTTPSConnection('x.x.x.x')
conn.request('','')
rd=conn.getresponse()
conn.close()
这样结束后会变成CLOSE_WAIT状态,我 ......