引导搜索引擎蜘蛛访问网站五技巧

2015-7-21    蓝蓝设计的小编

蓝蓝设计www.lanlanwork.com )是一家专注而深入的界面设计公司,为期望卓越的国内外企业提供有效的UI界面设计BS界面设计 、 cs界面设计 、 ipad界面设计 、 包装设计 、 图标定制 、 用户体验 、交互设计、 网站建设 平面设计服务

如果您想订阅本博客内容,每天自动发到您的邮箱中, 请点这里


第一、常见蜘蛛:蜘蛛其实就是搜索引擎用来访问页面的程序,英文叫spider,也称为机器人,英文为bot。有时候查看IIS日志就能看到各种蜘蛛访问网页的情况,对网站的优化起到一定的指导作用。当蜘蛛访问一个网站时,会发出页面访问请求并返回HTTP状态码,然后蜘蛛会把这些状态码存入自己的数据库,为以后的各种计算做铺垫。常见的蜘蛛有百度蜘蛛(Baiduspider)、雅虎蜘蛛(Mozilla)、微软Bing蜘蛛(msnbot)、搜狗蜘蛛(Sogou+web+bot)、Google蜘蛛(Googlebot)等。一般情况下,IIS日志都会有显示,站长们应该多花点时间仔细看下蜘蛛对自己网站的访问情况,然后对自己网站做出调整。


第二、文件存储:文件存储是搜索引擎的一个技术关键所在,同时也是面临的一个挑战。当搜索引擎爬行和抓取完成后,会把这些数据存入原始页面数据库。在这个数据库存放的数据和用户在浏览器中看到的页面是完全一样的。每个URL都会有一个独特的编号。除此之外,还要存储各种计算权重所需要的数据,比如各种链接的关系,PR的迭代计算等。这些数据量是巨大的。很多网站不存在时,我们可以访问搜索引擎的快照页面,这些页面就是存在搜索引擎自己的数据库中,与站长网站本身的数据没有关系,是独立存在的。平时的快照更新、排名波动都和搜索引擎的文件存储有着直接的关系。

第三、跟踪链接:跟踪链接指的是蜘蛛会顺着页面上的链接从一个页面爬到下一个页面

那么蜘蛛就会顺着这个词来排。因为整个互联网都是有不同的链接构成,所以理论上蜘蛛能爬行所有的页面。但由于现实中网站间的链接结构非常复杂,蜘蛛就会采取一定的策略才能爬行所有页面。常见的策略一般有两种,一是深度优先,二是广度优先。深度优先指的是顺着链接一直爬行,直到没有链接为止,然后返回第一个页面。而广度优先是顺着第一层的链接爬行,直到把第一层的链接爬行完然后再爬行第二层的链接。如果从理论上讲,只要有充足的时间,蜘蛛就能爬行完所有的网页,但实际上搜索引擎只是收录了互联网上很小的一部分网页。因此对我们来讲,争取做足够多的外部链接,让蜘蛛有机会来爬行与抓取。

第四、地址库:地址库对搜索来说显得尤为重要,互联网上的网页数量是巨大的,为了避免爬行和抓取重复的网址,搜索引擎会建立一个地址库,这个地址库主要记录已经发现但是还没有被抓取的页面,以及已经抓取的页面。有了地址库,就能让搜索引擎的工作更加有效率,地址库中的URL地址常常有几个来源:一是人工录入URL;二是自己爬行和抓取,如果爬行到一个新的网址,地址库中没有就会存入待访问的数据库;三是通过提交,很多站长都会去主动提交要被收录的页面。蜘蛛会从待访问的地址中访问里边的URL,爬行完就会删除,并存入以访问的地址库中。但大家也需要了解,我们去主动提高给搜索引擎网址,并不代表他一定会访问并收录我们的页面,搜索引擎更喜欢自己爬行发现新的URL,所以我们还是要做好网页的内容和外部链接。

第五、吸引蜘蛛:通过上文我们知道,虽然蜘蛛理论上能爬取所有页面,但由于链接的复杂性以及时间的局限性,蜘蛛往往只是抓取互联网上网页的一部分,如果我们的网站想要获得好的排名,那么就必须想方设法让蜘蛛来抓取,蜘蛛一般会抓取比较重要的页面,那些页面较重要呢?一是页面权重高、资格老的网站会被认为比较重要;二是页面常更新的页面,对于经常更新的页面,蜘蛛会更加频繁访问;三是导入链接比较多的页面,无论什么样的页面,如果想要蜘蛛访问,就必须有导入链接;四是与首页点击距离近的页面,因为首页的权重往往最高,所以,距首页最近点击距离的页面往往也被认为是最重要的页面。

分享本文至:

日历

链接

个人资料

蓝蓝设计的小编 http://www.lanlanwork.com

存档