搜索引擎工作原理

电子书简介:搜索引擎要知道网上的新生事物,就得派人出去收集,每天都有新的网站产生,每天都有网站内容的更新,而且这些产生的网站数量、更新的网站内容是爆炸式的,靠人工是不可能完成这个任务的,所以搜索引擎的发明者就设计了计算机程序,派它们来执行这个任务。

探测器有很多叫法,也叫Crawler(爬行器)、spider(蜘蛛)、robot(机器人)。这些形象的叫法是描绘搜索引擎派出的蜘蛛机器人爬行在互联网上探测新的信息,Google把它的探测器叫做Googlebot,百度就叫Baiduspider,Yahoo称为Slurp,无论它们叫什么,它们都是人们编制的计算机程序,由它们不分昼夜的访问各个网站,取回网站的内容、标签、图片等,然后依照搜索引擎的算法给它们定制索引。

电子书在线观看:http://doc.zzbaike.com/b/1/search-engines-work-principle.pdf

百度文档在线观看:http://wenku.baidu.com/view/f2226725ccbff121dd368383.html

电子书在线下载:http://down.zzbaike.com/ebook/search-engines-work-principle-1253.html

, , , , , , , , , , , , , , ,
Trackback

no comment untill now

Sorry, comments closed.

Random Plugin Created By Best Accountant Services