Python中requests设置代理ip如何实现?Python怎么用代理ip使用爬虫

在python之中requests是一个比较常用的爬虫库 , 它能够用来请求访问网站并且抓取数据返回 。但是当自己电脑ip使用爬虫过多时就会被一些网站拦截 , 而此时就需要用到代理ip了 。下面这篇文章会来讲解一下requests库设置代理ip的方法 , 并且用代理pi来使用爬虫 。

Python中requests设置代理ip如何实现?Python怎么用代理ip使用爬虫

文章插图
requests库设置代理ip非常简单 , 在这个库中向网站发送请求访问的方法为get和post 。而在这个两个方法里面有一个隐藏的可选参数为proxies , 它的作用就是去设置本次请求的代理ip , 示例如下:
response = requests.get('https://httpbin.org/ip', headers=headers, proxies={'https':'https://221.122.91.74:9401'}, timeout=6)从代码示例中就可以看出来这个参数需要接收的数据为字典类型 , 那么在这个字典之中键的值只能够是http或者是https , 它表示的是这个代理ip使用的是哪一种网络通信和数据传输协议 。
那么后面跟着的value值就是代理ip的url连接以及端口号 , 这个需要注意的是代理ip是公网上免费或者收费的 , 但是这个端口号需要是自己本身和代理ip服务器那边都空闲的才可以 。
那么该方法调用完成自后返回的值就是代理ip地址 , 因为请求的网站是查看当前ip的网站 , 那么就说明代理ip使用成功了 。需要注意的一点就是 , 代理ip所使用的协议需要和字典键中的http以及https保持一致相同 。
【Python中requests设置代理ip如何实现?Python怎么用代理ip使用爬虫】以上就是关于“Python中requests设置代理ip如何实现?Python怎么用代理ip使用爬虫”的全部内容了 , 希望对你有所帮助 。

    推荐阅读