python urllib2 抓取网页 如何捕获各种异常呢
我用python的 urllib2来抓取网页 怎么才能捕获各种返回的异常呢?
有如下代码:
Python code:
import urllib2
if __name__ == '__main__':
url = 'http://hh'
try:
urllib2.urlopen(url, timeout=5)
except URLError, e:
print e.reason
我捕获异常 却提示这种错误:
except URLError, e:
NameError: name 'URLError' is not defined
是怎么回事 为什么说我未定义呢?
该怎么改才可以呢
还有 麻烦告知一下 网页各种返回错误怎么捕获呢
可能是没导入合适的库
不是有个更好的例子么
from urllib2 import Request, urlopen, URLError, HTTPError
req = Request(someurl)
try:
response = urlopen(req)
except HTTPError, e:
print 'The server couldn\'t fulfill the request.'
print 'Error code: ', e.code
except URLError, e:
print 'We failed to reach a server.'
print 'Reason: ', e.reason
else:
# everything is fine
相关问答:
像 C 的 scanf() 那样
比如读入 1 2 3 a b c
每次读入一个
下面这个应该是你想要的吧:
Python code:
>>> k = raw_input()
0 0123 ds dsl sd
>>> k
'0 0123 ds dsl sd'
>>> ......
在文本文件中匹配项包含中文
如内容为:gamename=中文
key=天下
文本文件的编码的文件为utf-8
python代码如下:
# -*- coding:UTF-8 -*-
contents=open(from_pa ......
feedparser导入这个包 读xml的title,link 都没问题 就是时间读取不出来
错误:
print d['feed']['%s lastBuildDate']
return UserDict.__getitem__(self, realkey)
KeyError: ' ......
>>> x=-1
>>> if x>0:
print ('11')
>>> else:
SyntaxError: invalid syntax (<pyshell#20>, line 1)
网上搜的也是:
>>> x=int(input("Please ent ......
我想用python解析网页中的url 在下载之前, 我想先发一个head请求 不需要下载整个网页, 先获得该网站的head信息, 读取一些信息之后 在调用这些库的read方法来读取整个网页 该怎么操作呢 多谢
帮顶了
有人能指教一 ......