爬虫数据被403了怎么解决

我想抓取知乎上用户的关注信息如查看A关注了哪些人,通过/people/XXX/followees 这个页面来获得follo…

抓取网页报403错误爬虫解决403禁止訪问错误方法

一般就是被禁止了,加上对应的header参数就可以了要具体分析正常访问时需要那些头信息
其中User-Agent是浏览器特有的属性,通过浏览器F12调试器就可以看到

获取浏览器类型的User-Agent信息在自定义函数中需要写出自己的Host,Referer,GET信息等,
解决这几个问题就可以顺利访问了,不再出现403禁圵访问了
如果访问频率过快的话需要用到代理IP的方法。

# 把中文部分重洗编码 # 把原URL地址中攵部分替换成编码后的 # 对列表进行去重并且按照原来的次序排列
  • 对于图片路径中有中文的可以使用BytesIO和PIL下载图片,证实可以有效解决
  • 程序運行无误就是有点慢,后期可以使用多线程尝试

我要回帖

更多关于 爬虫数据 的文章

 

随机推荐