当前位置:百科科普帮 > 经验 > 什么是爬虫技术
手机版

什么是爬虫技术

来源:百科科普帮 阅读:1.75W 次

什么是爬虫技术

1、爬虫技术即网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。

2、网络爬虫按照系统结构和实现技术,大致可以分为以下几种类型:通用网络爬虫(GeneralPurposeWebCrawler)、聚焦网络爬虫(FocusedWebCrawler)、增量式网络爬虫(IncrementalWebCrawler)、深层网络爬虫(DeepWebCrawler)。实际的网络爬虫系统通常是几种爬虫技术相结合实现的。

本文链接:https://www.bkkpb.com/jybk/5kzrgm.html

Copyright © 2024. 百科科普帮 All right reserved. 黑ICP备20186528号-2

文字美图素材,版权属于原作者。部分文章内容由网友提供推送时因种种原因未能与原作者联系上,若涉及版权问题,敬请原作者联系我们,立即处理。