scrapy发送邮件
scrapy发送邮件
应用场景:在爬虫关闭或者爬虫空闲时可以通过发送邮件的提醒。
通过twisted的非阻塞IO实现,可以直接写在spider中,也可以写在中间件或者扩展中,看你具体的需求。
在网上找了很多教程,都是很多年前的或者就是官网搬运的,一点实际的代码都没有,所以就自己尝试了一下,由于本人也是爬虫新手,轻喷,轻喷!
看下面的示例代码前,先看下官网,熟悉基本的属性。
官网地址sending e-mail:
<https://docs.scrapy.org/en/latest/topics/email.html?highlight=MailSender>
-
首先在
settings
同级的目录下创建extendions
(扩展)文件夹,代码如下:
import logging from scrapy import signals from scrapy.exceptions import NotConfigured from scrapy.mail import MailSender logger = logging.getLogger(__name__) class SendEmail(object): def __init__(self,sender,crawler): self.sender = sender crawler.signals.connect(self.spider_idle, signal=signals.spider_idle) crawler.signals.connect(self.spider_closed, signal=signals.spider_closed) @classmethod def from_crawler(cls,crawler): if not crawler.settings.getbool('MYEXT_ENABLED'): raise NotConfigured mail_host = crawler.settings.get('MAIL_HOST') # 发送邮件的服务器 mail_port = crawler.settings.get('MAIL_PORT') # 邮件发送者 mail_user = crawler.settings.get('MAIL_USER') # 邮件发送者 mail_pass = crawler.settings.get('MAIL_PASS') # 发送邮箱的密码不是你注册时的密码,而是授权码!!!切记! sender = MailSender(mail_host,mail_user,mail_user,mail_pass,mail_port) #由于这里邮件的发送者和邮件账户是同一个就都写了mail_user了 h = cls(sender,crawler) return h def spider_idle(self,spider): logger.info('idle spider %s' % spider.name) def spider_closed(self, spider): logger.info("closed spider %s", spider.name) body = 'spider[%s] is closed' %spider.name subject = '[%s] good!!!' %spider.name # self.sender.send(to={'zfeijun@foxmail.com'}, subject=subject, body=body) return self.sender.send(to={'zfeijun@foxmail.com'}, subject=subject, body=body)
这里为什么是
return self.sender.send
,是因为直接用sender.send
会报builtins.AttributeError: 'NoneType' object has no attribute 'bio_read'
的错误(邮件会发送成功),具体原因不是很懂,有大牛知道的可以指导一下。解决方法参考:
<https://github.com/scrapy/scrapy/issues/3478>
在
sender.send
前加return
就好了。 -
在扩展中写好代码后,需要在
settings
中启用
EXTENSIONS = { # 'scrapy.extensions.telnet.TelnetConsole': 300, 'bukalapak.extendions.sendmail.SendEmail': 300, } MYEXT_ENABLED = True
转载请注明出处!
原文地址:https://www.cnblogs.com/mangM/p/10790591.html
相关推荐
-
Python 爬虫找到数据了 re & XPath & requests & Pool 网络爬虫
2019-8-26
-
Python爬虫知识点梳理 网络爬虫
2019-9-14
-
从零开始的Python爬虫速成指南 网络爬虫
2018-2-2
-
Python爬虫:抓取手机APP的数据 网络爬虫
2018-2-3
-
用Python写一个简单的微博爬虫 网络爬虫
2018-3-4
-
Python爬虫(7):多进程抓取拉钩网十万数据 网络爬虫
2018-3-13
-
高效利用Sentry追踪日志发现问题 网络爬虫
2019-3-23
-
Python爬虫 – 抓取divnil动漫妹子图 网络爬虫
2019-8-25
-
selenium实战-同步网易云音乐歌单到qq音乐 网络爬虫
2019-4-27
-
Python爬一下抖音上小姐姐的视频~ 网络爬虫
2019-8-25