浅谈网络爬虫

爬虫,又称为 网页蜘蛛(spider) ,就是能够在互联网中检索自己需要的信息的程序或脚本。 爬虫,简单的说就是 一个http(https)请求 ,获取到对面网页的源码,然后从网页的源码中抓取自己需要的信息。而html代码的规则是基于xml的,所以可以通过一定解析规则和逻辑完成我们的数据。 爬虫能干什么 爬虫能干的...