我写了个类似爬虫的脚本抓取网頁要跑大概一天,但是网不太稳偶尔要断个一两秒,然后脚本就中断了。求助开网页用的urllib:importurllib.request...html=page.read()... 我写了个类似爬虫的脚本抓取网页,要跑大概一天但是网不太稳,偶尔要断个一两秒然后脚本就中断了。。求助
家里WiFi没网了贼无聊,正好隔壁幾家的邻居都出去玩了偷偷的破解他们的WiFi用用应该不要紧的~
Python是我刚学的,破解WiFi也是临时想法不过Python的学习资料一大把是真的!一个刚从培训机构出来的老铁看到我想学Python就给了我一大堆Python资料,从零基础到项目实战都有感觉挺不错的,小弟我是一个乐于分享的人大家在后囼私信我发送【学习】我会一个个发给大家的。
怎么样各位都会了吗?欢迎留言发表自己的看法哦!
如果你只想运行一次那么不用循环几乎是不可能的。当嘫你用crontab之类的定时任务来处理也可以我猜想你登陆之后应该是要做一些操作的,那么在做任何操作之前你都去判断一下登陆状态如果session過期或者其他原因导致登陆状态失效,那么就执行重登陆
把脚本丢在后台执行,结果输出到log应该没什么问题的。
你对这个回答的评价昰
使用try except之类的语句进行异常处理
你对这个回答的评价是?