BeautifulSoup3 编码问题总结

关于 BeautifulSoup3 对 gb2312 编码的网页解析的乱码问题,【这篇文章】提出了一个勉强能用的解决方法。即如果中文页面编码是 gb2312gbk,在 BeautifulSoup 构造器中传入 fromEncoding="gb18030" 参数即可解决乱码问题,即使分析的页面是 utf8 的页面使用 gb18030 也不会出现乱码问题!如:

1
2
3
4
5
6
7
from urllib2 import urlopen
from BeautifulSoup import BeautifulSoup

page = urllib2.urlopen('http://www.baidu.com');
soup = BeautifulSoup(page,fromEncoding="gb18030")

print soup.originalEncoding

为什么网页是 utf8 传入 gb18030 依然能够正常解析呢?

这是由于,BeautifulSoup 的编码检测顺序为:

  1. 创建 Soup 对象时传递的 fromEncoding 参数;
  2. XML/HTML 文件自己定义的编码;
  3. 文件开始几个字节所表示的编码特征,此时能判断的编码只可能是以下编码之一:UTF-#,EBCDIC 和 ASCII;
  4. 如果你安装了 chardet,BeautifulSoup 就会用 chardet 检测文件编码;
  5. UTF-8;
  6. Windows-1252。

因此,当传入 fromEncoding="gb18030" 编码参数与 html 文件编码不匹配时,BeautifulSoup 并不会抛出异常,而是按照预定义的编码检测顺序,按照 utf8 来解析,因此也可以勉强得到正确结果!

Author

whypro

Posted on

2013-03-28

Updated on

2022-11-11

Licensed under

Comments

Your browser is out-of-date!

Update your browser to view this website correctly.&npsb;Update my browser now

×