互联网爬虫概念。 互联网爬虫,主要用于采集网络上的各种资源,它是搜索引擎的要紧组成部分,是一个可以自动提取网络上特定页面内容的程序,一段自动抓取网络信息的程序称为爬虫。 爬虫指的是:向网站发起请求,获得资源后剖析并提取有用数据的程序,从技术层面来讲就是通过程序模拟浏览器请求站点的行为,把站点返回的HTML代码、JSON数据、图片、视频等爬到当地,进而提取自己需要的数据,存放起来用。