Bài viết phổ biến của tác giả
- r - 以节省内存的方式增长 data.frame
- ruby-on-rails - phát hiện rò rỉ bộ nhớ Ruby/Ruby on Rails
- android - 无法解析导入android.support.v7.app
- UNIX 域套接字与共享内存(映射文件)
我使用scrapy-redis简单搭建了一个分布式爬虫,slave机器需要读取master队列的url,但是有一个问题是slave机器获取到的url是经过cPikle转换后的数据,我想获取url来自 redis-url-queue 的是正确的,你有什么建议?
ví dụ:
from scrapy_redis.spiders import RedisSpider
from scrapy.spider import Spider
from example.items import ExampleLoader
class MySpider(RedisSpider):
"""Spider that reads urls from redis queue (myspider:start_urls)."""
name = 'redisspider'
redis_key = 'wzws:requests'
def __init__(self, *args, **kwargs):
super(MySpider, self).__init__(*args, **kwargs)
def parse(self, response):
el = ExampleLoader(response=response)
el.add_xpath('name', '//title[1]/text()')
el.add_value('url', response.url)
return el.load_item()
MySpider继承了RedisSpider,当我运行scrapy runspider myspider_redis.py时出现不合法的url
scrapy-redis github地址:scrapy-redis
câu trả lời hay nhất
scrapy-redis
中使用了一些内部队列.一个用于启动 url(默认为
),另一个用于共享请求(默认为
),另一个用于 dupefilter。
起始 urls 队列和请求队列不能相同,因为起始 urls 队列需要单个字符串值,而请求队列需要 pickled 数据。
所以,你不应该使用
作为redis_key
在蜘蛛中。
如果这有帮助,请告诉我,否则请在 redis_key
中分享消息排队。
关于python - 如何从redis获取正常的url而不是通过cPikle转换的url?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36127129/
我正在尝试使用 CIFAR-10 dataset其中包含 a special version for python . 它是一组二进制文件,每个文件代表一个包含 10k numpy 矩阵的字典。这些文
Tôi là một lập trình viên xuất sắc, rất giỏi!