GOOGLE优化的原理与关键词的选择
本文有848个文字,大小约为4KB,预计阅读时间3分钟
原文标题:GOOGLE优化的原理与关键词的选择
搜索引擎的运行原理也是SEO新手入门需要了解的知识,能够帮助你对搜索引擎这个工具有个整体的认知。对于所有的搜索引擎来说,他们基本的工作流程都是相同的。
首先是抓取,搜索引擎通过蜘蛛(搜索引擎的抓取程序),抓取互联网上的众多网站信息;
然后是收录,搜索引擎会把抓取到的网页信息,收录到自己的数据库中;
最后是排名,搜索引擎根据用户使用的搜索词通过它的特定算法在数据库中找到匹配的相关页面,通过搜索结果的形式展示给用户。
抓取规则(Crawling)
搜索引擎会利用蜘蛛工具抓取互联网上可以抓取到的所有网页信息。可能有人会问蜘蛛工具是什么?互联网上的网站是相互链接的,网站内部的叫做内链,对外的链接叫做外链。这些链接就像一张大网一样,把几乎所有的网站都连接到了一起,从而组合成了整个互联网。
而搜索引擎的抓取工具,就像蜘蛛一样,可以顺着这个网络对网页信息一个个地进行抓取。所以,我们把搜索引擎的抓取工具称之为蜘蛛。谷歌的抓取工具就叫做谷歌蜘蛛,百度的抓取工具就叫做百度蜘蛛,有些人也把蜘蛛叫做机器人,都是同一个意思。
检查网站是否可以被抓取
蜘蛛到你的网站上第一步会检测你的网站是否处于可以抓取的状态,因为不是所有的网站都愿意让搜索引擎抓取。
比如,一个网站刚刚搭建,还没有什么实质性的内容,不想立刻对外开放,也不想给搜索引擎留下不好的第一印象,于是可以选择不让蜘蛛抓取。这一步实现起来也很简单,主要是利用网站中的一个叫做robots.txt的协议文件告诉蜘蛛是否可以抓取本网站,甚至进一步规定哪些页面可以抓取,哪些页面不可以抓取。
谷歌爬虫抓取网页
在获得网站内容抓取权限后,蜘蛛就会开始自己的抓取工作,搜集网站中各个网页的信息。前面提到过,蜘蛛是顺着链接爬行的,所以你的网站中的各个页面需要有链接联系起来,这样才能方便蜘蛛爬行抓取,这些链接也就是我们说的内链。
内链的一般形式有:各类导航链接、文中链接、图片链接等。如果你的某一个网页,其他页面上均无法跳转到,sitemap站点地图里也没有,外部也没有任何链接指向它,那么这个页面蜘蛛也就无法到达了,除非你单独提交给搜索引擎,但这种页面也就没什么意义了。
另外,蜘蛛的抓取工作不一定都是通过首页开始的,可能蜘蛛是顺着别的网站指向你网站中的某个页面的链接爬进来的,也就是通过外链来到了你的网站。所以,外链也能起到帮助网站被抓取的作用。
即便robots规则没有阻止抓取,搜索引擎的蜘蛛抓取工具也不是任何内容都可以抓取到的。和我们肉眼查看网站的方式不一样,搜索引擎看的是网站被抓取到的源代码。
本文来源:https://google520.net/seo/206.html
版权声明:本文为向前网络工作室,未经站长允许不得转载。