- certificate¶
A twisted.internet.ssl.Certificate 表示服务器的SSL证书的。 仅为填充 https 响应, None 否则。
- ip_address¶
从哪个服务器发出响应的IP地址。 该属性目前只由http1.1下载处理程序填充,即 http(s) 响应。对于其他处理程序, ip_address 总是 None .
- protocol¶
用于下载响应的协议。例如:“HTTP/1.0”、“HTTP/1.1” 此属性当前仅由HTTP下载处理程序填充,即 http(s) 回应。对于其他处理程序, protocol 总是 None 。
- attributes: Tuple[str, ...]= ('url', 'status', 'headers', 'body', 'flags', 'request', 'certificate', 'ip_address', 'protocol')¶
的元组 str 对象,这些对象包含类的所有公共属性的名称,这些属性也是 __init__ 方法。 当前由以下人员使用 Response.replace() 。
- copy()[源代码]¶
返回此响应的副本的新响应。
- replace([url, status, headers, body, request, flags, cls])[源代码]¶
返回具有相同成员的响应对象,除了那些通过指定的关键字参数赋予新值的成员。属性 Response.meta 默认情况下是复制的。
- urljoin(url)[源代码]¶
通过组合响应的 url 有一个可能的相对URL。 这是包装纸 urljoin() ,这仅仅是进行此呼叫的别名: urllib.parse.urljoin(response.url, url)
- follow(url, callback=None, method='GET', headers=None, body=None, cookies=None, meta=None, encoding='utf-8', priority=0, dont_filter=False, errback=None, cb_kwargs=None, flags=None)[源代码]¶
返回A Request 要跟踪链接的实例 url . 它接受与 Request.__init__ 方法,但 url 可以是相对URL或 scrapy.link.Link 对象,而不仅仅是绝对URL。 TextResponse 提供了一个 follow() 方法,它除了支持绝对/相对URL和链接对象之外还支持选择器。
- follow_all(urls, callback=None, method='GET', headers=None, body=None, cookies=None, meta=None, encoding='utf-8', priority=0, dont_filter=False, errback=None, cb_kwargs=None, flags=None)[源代码]¶
返回iterable of Request 跟踪所有链接的实例 urls . 它接受与 Request.__init__ 方法,但元素 urls 可以是相对URL或 Link 对象,而不仅仅是绝对URL。 TextResponse 提供了一个 follow_all() 方法,它除了支持绝对/相对URL和链接对象之外还支持选择器。
|