博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
关于爬虫
阅读量:5344 次
发布时间:2019-06-15

本文共 742 字,大约阅读时间需要 2 分钟。

关于Python的一个就业方向 ,最近看了一个关于爬虫的介绍 做爬虫,特别是python写说容易挺容易,说难也挺难的,  简单的:将上面的所有代码爬下来 写个,调用urllib2的几个函数就成了,基本10行到20行以内的代码 难度0 情景: 1.很卡,有些页面打不开,urlopen直接就无限卡死在了某些页面上(2.6以后urlopen有了timeout) 2.爬下来的网站出现乱码,你得分析网页的编码 3.网页用了gzip压缩,你是要在header里面约定好默认不压缩还是页面下载完毕后自己解压 4.你的爬虫太快了,被服务器要求停下来喝口茶 5.服务器不喜欢被爬虫爬,会对对header头部信息进行分析,如何伪造 6.爬虫整体的设计,用bfs爬还是dfs爬 7.如何用有效的储存url使得爬过的页面不被重复爬到 8.比如1024之类的网站(逃,你得登录后才能爬到它的内容,如何获取cookies 以上问题都是写爬虫很常见的,由于python强大的库,略微加了一些代码而已 难度1 情景: 1.还是cookies问题,网站肯定会有一个地方是log out,爬虫爬的过程中怎样避免爬到各种Log out导致session失效 2.如果有验证码才能爬到的地方,如何绕开或者 3.嫌速度太慢,开50个线程一起爬网站数据 难度2 情景: 1.对于复杂的页面,如何有效的提取它的链接,需要对非常熟练 2.有些标签是用Js动态生成的,js本身可以是加密的,甚至奇葩一点是jsfuck,如何爬到这些 难度3 总之爬虫最重要的还是模拟的行为,具体程序有多复杂,由你想实现的功能和被爬的网站本身所决定

转载于:https://www.cnblogs.com/black-l/p/7828475.html

你可能感兴趣的文章
[BZOJ2938] 病毒
查看>>
webstorm修改文件,webpack-dev-server不会自动编译刷新
查看>>
Scikit-learn 库的使用
查看>>
CSS: caption-side 属性
查看>>
python 用数组实现队列
查看>>
认证和授权(Authentication和Authorization)
查看>>
Mac上安装Tomcat
查看>>
CSS3中box-sizing的理解
查看>>
传统企业-全渠道营销解决方案-1
查看>>
Lucene全文检索
查看>>
awk工具-解析1
查看>>
推荐一款可以直接下载浏览器sources资源的Chrome插件
查看>>
CRM product UI里assignment block的显示隐藏逻辑
查看>>
AMH V4.5 – 基于AMH4.2的第三方开发版
查看>>
Web.Config文件配置之配置Session变量的生命周期
查看>>
mysql导入source注意点
查看>>
linux下编译安装nginx
查看>>
ArcScene 高程不同的表面无法叠加
查看>>
[ONTAK2010] Peaks
查看>>
DLL 导出函数
查看>>