python段子_Python语言在手,段子我有

本文主要向大家介绍了Python语言在手,段子我有,通过具体的内容向大家展示,希望对大家学习Python语言有所帮助。

代码git地址:https://github.com/DemonYan/spider_study

后续爬虫相关代码都会在git上进行更新,请持续关注

本文分享自己学爬虫的一个代码。该代码实现的是使用urllib2爬取http://www.neihanpa.com/article/网站的段子。

小编也正处于学习python的阶段,如有什么错误,欢迎留言指出。

一、实现环境

mac 10.13.2

python 2.7

使用模块:urllib2

二、实现源码

#!/usr/bin/env python

#-*- coding:utf-8 -*-

#author: Demon

import urllib2

import random

import re

import os

# 定义多个User-Agent

header_list = [

"Mozilla/5.0(Macintosh;U;IntelMacOSX10_6_8;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50"

"Mozilla/5.0(Macintosh;IntelMacOSX10.6;rv:2.0.1)Gecko/20100101Firefox/4.0.1"

"Opera/9.80(Macintosh;IntelMacOSX10.6.8;U;en)Presto/2.8.131Version/11.11"

"Mozilla/5.0(Macintosh;IntelMacOSX10_7_0)AppleWebKit/535.11(KHTML,likeGecko)Chrome/17.0.963.56Safari/535.11"

"Mozilla/4.0(compatible;MSIE7.0;WindowsNT5.1;Trident/4.0;SE2.XMetaSr1.0;SE2.XMetaSr1.0;.NETCLR2.0.50727;SE2.XMetaSr1.0)"

]

def getRandomUserAgent():

"""

随机得到一个User-Agent

"""

return random.choice(header_list)

class Neihanpa:

def __init__(self):

# 网站的基础url

self.baseUrl = "http://www.neihanpa.com/article"

# 起始页码

self.page = 1

# 匹配每条段子的正则表达式

# 默认.在单行中进行匹配(.不匹配换行符)

# re.S 表示进行全文匹配,开启DOTALL模式,即使得. 也可以匹配换行符

# .* : 尽可能多匹配(贪婪模式)

# .*? : 尽可能少匹配

self.pattern_page_div = re.compile(r'

(.*?)

', re.S)

# 由于由网站的列表页爬出来的段子是不完整的,需要根据里面的url点进去,才能看到完整的数据

# 匹配出每个段子中的请求链接,用于获取完整的段子

self.pattern_div_href = re.compile(r'/\d+.html', re.S)

# 匹配完整的段子

# 由于根据列表页的url再次访问得到的页面,肯定只有一个段子,而且段子的每句话是由

标签分隔的

# 所以,这里不需要加re.S,就能拿到每个句子组成的一个list

self.pattern_p = re.compile(r'

(.*)

')

# 对最终的格式进行处理

# &(.*?) 匹配HTML里的一些实体字符,比如

# \s 匹配空白字符和换行符

# ' '是一个全角空格,\s不能匹配到

self.pattern_content = re.compile(r"&(.*?);|\s| ")

# 定义存储所有段子的文件名

self.saved_filename = "duanzi.txt"

def dealPage(self, html):

"""

处理从网站列表页中获取到的每个段子

从而获取能得到完整段子的url列表

"""

div_list = self.pattern_page_div.findall(html)

url_list = []

for div_content in div_list:

href_list = self.pattern_div_href.findall(div_content)

for href in href_list:

url_list.append(href)

return url_list

def loadPage(self, url):

"""

根据url爬取页面

如果爬取发生错误,直接过滤

"""

try:

request = urllib2.Request(url)

request.add_header("User-Agent", getRandomUserAgent())

response = urllib2.urlopen(request)

return response.read()

except urllib2.HTTPError, e:

return ""

def writePage(self, content_list):

"""

将获取到的段子写入文件

"""

with open(self.saved_filename, "a") as f:

for content in content_list:

deal_content = self.pattern_content.sub("", content)

f.write(deal_content)

f.write("\n")

f.write("\n\n")

def spider(self):

"""

处理页码信息并调用相关方法

"""

if self.page == 1:

url = self.baseUrl + "/index.html"

# 当爬取第一页时,判断文件是否存在

if os.path.exists(self.saved_filename):

# print "removed" # 调试

os.remove(self.saved_filename)

else:

url = self.baseUrl + "/index_%s.html" % (self.page)

self.page+=1

html = self.loadPage(url)

if html == "":

return

duanziUrl_list = self.dealPage(html)

for duanziUrl in duanziUrl_list:

print "段子%s爬取成功!" % (duanziUrl)

duanziHtml = self.loadPage(self.baseUrl + duanziUrl)

duanzi_list = self.pattern_p.findall(duanziHtml)

self.writePage(duanzi_list)

def main():

neihanpa = Neihanpa()

while True:

operation = raw_input("输入Q退出,输入回车继续:")

if operation.lower() == 'q':

break

neihanpa.spider()

if __name__ == "__main__":

main()

三、代码解释

首先,刚开始接触Python爬虫,所以使用的是urlib2+正则表达式的方式来对爬取的数据进行的处理。当然有更好更方便的方式,后续会对这个代码进行持续的更新。比如改用request模块等

其次,这个网站,在显示段子列表页里,只显示了段子的一部分内容,所以在代码里爬取列表页获取到部分段子,通过对获取到的部分段子进行处理,拿到能得到完整段子的url,再进行进一步的爬取

最近刚配置了一下vim编辑器,使它可以显示行号,代码能自动提示,同时能显示文档结构。然后更改了主题(程序员对这种暗黑色的代码主题都情有独钟啊)。配置过程遇到很多问题,有时间会再总结下相关操作。

本文由职坐标整理并发布,希望对同学们学习Python有所帮助,更多内容请关注职坐标编程语言Python频道!


版权声明:本文为weixin_33421437原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。