做百度SEO选择关键词有哪些规则?日均搜索量,百度指数,等一些数值怎么看?什么样的数值的词可以做?

2024-05-02 03:13

1. 做百度SEO选择关键词有哪些规则?日均搜索量,百度指数,等一些数值怎么看?什么样的数值的词可以做?

SEO流程操作及网站优化技巧网站的SEO流程,假设需要花一年的时间来完成。大致可以分为以下四个阶段:
第一阶段是准备期,主要要完成以下三个工作:站点分析---形成站点分析报告竞争对手分析---形成竞争对手分析报告战略方针的确定与布署---初步完成SEO执行方案.战略布署方面,遵循这样一个原则: 先治内伤,再优化外部。

第二阶段为前期,收集了充分的材料后,可以着手前期的工作。这个时间大概会持续1-2个月。这个阶段的主要工作如下:关键字分析、挖掘---形成关键词分析报告及布署方案搜索引擎友好化---撰写站点修改措施建议书内容强化---资讯频道建立、对编辑团队的培训内部优化---URL优化、各级页面DIV重构、关键字布局、目录逻辑结构调整、JS优化、专题页建设等。
第三阶段,是中期。中期的时间跨度会比较长,大概需要5-6个月。这段时间的主要工作为:外部优化---外链支持及规则制定、资源站群规划、目录整体调整、BLOG群建运作
第四阶段就是后期了。后期大概是2-3个月。外部优化:A、链接策略B、站群站群的最大难度不在于建立,而在于维护。假设有二十个站,每个站每天更新十条信息,都得累死。
每个站与站之间要有独特的信息。C、BLOG群建A、链接策略。推荐使用单向链接。两种方法拥有单向链接:
一是自己建立站群、博客、论坛签名等方式。通过这种方式建立反向单链要注意一下,使用关键字包括长尾关键字来做为锚文字,效果要比单一的锚文字链接要好得多。
二是在链接交换的时候,策略性的交换。

后期的工作,主要有以下这些:分析与观察---用户搜索行为分析、关键词效果评估、搜索引擎表现观测、转化率分析及评估、搜索引擎占有率分析、站内行为分析、UE分析及修改、竞争对手分析及监测、资源站群推进、对话SEO网站中影响搜索结果页面(SERP)排名的两条根本因素就是:
1.网站是不是客户最想要找的东西
2.这个网站能不能最快地让浏览者找到SEM:是Search Engine Marketing的英文缩写,即搜索引擎营销。
SEO:是英文Search Engine Optimization的缩写,即搜索引擎优化。SERP:是Search Engine Results Page的首字母缩写,即搜索引擎结果页面。是搜索引擎对搜索请求反馈的结果。内部优化跟外部优化。A、METAB、URL及目录结构C、关键字布局D、JS优化E、专题页F、TAGSG、资讯频道(企业站+ZBLOG)H、页面代码层优化1、内部优化A、META:一般我们只关注三个:TITLE、KEYWORDS、DEscriptION就TITLE而言,网站最容易犯的毛病就是堆砌关键字。通过以下两种方式来代替:一是直接调用文章第一段的内容,100字左右即可;二是调用标题,但是加些自定义的字眼。比如用“这是yiyuandir站关于(调用标题)方面的内容,希望您喜欢”这样的搭配来直接做为B、URL、医院目录网、域名。大多存在两个问题: 一是URL动态参数过多,不利抓取;二是静态页面目录过深.C、关键字布局关键字布局,有两种:一、是单页面的站,这种站是典型的垃圾站。有限的位置,如何把关键字放好而又比较自然地出现,是关键。二、是多页面的站,特别是一些有统一模板,或者是站点内容有第三者供应的情况。 D、JS优化网页代码的头部充斥着许多的JAVA代码,这个问题很多网站都存在。E、专题页网站不是很重视专题页,但实际上。一个好的专题,完全有可能取代一些门户的排名。F、TAGS (Tag(中文叫做“标签”))G、资讯频道H、页面代码层优化

做百度SEO选择关键词有哪些规则?日均搜索量,百度指数,等一些数值怎么看?什么样的数值的词可以做?

2. 百度上在搜索的时候有什么技巧?

1. 搜索,就这么简单 只要在搜索框中输入关键词,并按一下 按钮,百度就会自动找出相关的网站和资料。百度会寻找所有符合您全部查询条件的资料,并把最相关的网站或资料排在前列。小技巧:输入关键词后,直接按键盘上的回车键(即Enter健),百度也会自动找出相关的网站或资料。2. 什么是关键词关键词,就是您输入搜索框中的文字,也就是您命令百度寻找的东西。您可以命令百度寻找任何内容,所以关键词的内容可以是:人名、网站、新闻、小说、软件、游戏、星座、工作、购物、论文、、、关键词,可以是任何中文、英文、数字,或中文英文数字的混合体。 例如,您可以搜索[大话西游]、[windows]、[911]、[F-1赛车]。关键词,您可以输入一个,也可以输入两个、三个、四个,您甚至可以输入一句话。 例如,您可以搜索[爱]、[美女]、[mp3 下载]、[游戏 攻略 大全]、[蓦然回首,那人却在灯火阑珊处]。提示:多个关键词之间必须留一个空格(按一下键盘上最长的那个键)。3. 准确的关键词百度搜索引擎严谨认真,要求"一字不差"。 如:分别输入 [舒淇] 和 [舒琪] ,搜索结果是不同的。 分别输入 [电脑] 和 [计算机] ,搜索结果也是不同的。因此,如果您对搜索结果不满意,建议检查输入文字有无错误,并换用不同的关键词搜索。4. 输入两个关键词搜索输入多个关键词搜索,可以获得更精确更丰富的搜索结果。 如,搜索[北京 暂住证],可以找到几万篇资料。而搜索[北京暂住证],则只有严格含有"北京暂住证"连续5个字的网页才能被找出来,不但找到的资料只有几百篇,资料的准确性也比前者差得多。因此,当你要查的关键词较为冗长时,建议将它拆成几个关键词来搜索,词与词之间用空格隔开。多数情况下,输入两个关键词搜索,就已经有很好的搜索结果。 高级搜索功能 ↑返回目录 1. 减除无关资料 有时候,排除含有某些词语的资料有利于缩小查询范围。百度支持"-"功能,用于有目的地删除某些无关网页,但减号之前必须留一空格,语法是"A -B"。例如,要搜寻关于"武侠小说",但不含"古龙"的资料,可使用如下查询: 2. 并行搜索使用"A | B"来搜索"或者包含关键词A,或者包含关键词B"的网页。例如:您要查询"图片"或"写真"相关资料,无须分两次查询,只要输入 [图片 | 写真] 搜索即可。 百度会提供跟"|"前后任何关键词相关的网站和资料。3. 相关检索如果您无法确定输入什么关键词才能找到满意的资料,百度相关检索可以帮助您。 您先输入一个简单词语搜索,然后,百度搜索引擎会为您提供"其它用户搜索过的相关搜索词"作参考。点击任何一个相关搜索词,都能得到那个相关搜索词的搜索结果。4. 百度快照百度快照——是百度网站最具魅力和实用价值的好东东。大家在上网的时候肯定都遇到过“该页无法显示”(找不到网页的错误信息)。至于网页连接速度缓慢,要十几秒甚至几十秒才能打开更是家常便饭。出现这种情况的原因很多,比如:网站服务器暂时中断或堵塞、网站已经更改链接等等。无法登录网站的确是一个令人十分头痛的问题。百度快照能为您很好的解决这个问题。 百度搜索引擎已先预览各网站,拍下网页的快照,为用户贮存大量应急网页。百度快照功能在百度的服务器上保存了几乎所有网站的大部分页面,使您在不能链接所需网站时,百度为您暂存的网页也可救急。而且通过百度快照寻找资料要比常规链接的速度快得多。因为+ 百度快照的服务稳定,下载速度极快,您不会再受死链接或网络堵塞的影响。+ 在快照中,您的关键词均已用不同颜色在网页中标明,一目了然。+ 点击快照中的关键词,还可以直接跳到它在文中首次出现的位置,使您浏览网页更方便。5. 网页预览点击每条搜索结果后的“网页预览”,可以在该位置下打开一个大小适中的窗口展示该结果网页的内容。同时,“网页预览”也将变为“关闭预览”,网友再点击“关闭预览”,即可关闭该展示窗口。网页预览使用户不离开当前搜索结果页,即可查看感兴趣网页的内容。也可以同时打开多个“网页预览”,很方便的对照比较几个搜索结果。推荐宽带用户使用特色功能“预览本页全部结果”。点击百度搜索结果右上角的链接“预览本页全部结果”,将同时在每篇搜索结果下打开一个窗口实时预览。同时该链接也变为“关闭本页全部预览”,再次点击,即可关闭所有预览窗口。6. Flash搜索百度Flash搜索( flash.baidu.com ),可搜索约五万个Flash,只需输入关键词,就可以搜到各种版本的相关Flash。7. 在指定网站内搜索在一个网址前加"site:",可以限制只搜索某个具体网站、网站频道、或某域名内的网页。例如, [电话 site: www.baidu.com] 表示在 www.baidu.com 网站内搜索和"电话"相关的资料;[竞价排名 site:baidu.com] 表示在baidu.com网站内搜索和"竞价排名"相关的资料; [intel site:com.cn] 表示在域名以"com.cn"结尾的网站内搜索和"intel"相关的资料;[门户 .cn] 表示在域名以"cn"结尾的网站内搜索和"门户"相关的资料;注意:搜索关键词在前,site:及网址在后;关键词与site:之间须留一空格隔开;site后的冒号":"可以是半角":"也可以是全角":",百度搜索引擎会自动辨认。"site:"后不能有" http://"前缀或"/"后缀,网站频道只局限于"频道名.域名"方式,不能是"域名/频道名"方式。 8. 在标题中搜索在一个或几个关键词前加"intitle:",可以限制只搜索网页标题中含有这些关键词的网页。 例如, [intitle:南瓜饼] 表示搜索标题中含有关键词"南瓜饼"的网页;[intitle:百度 互联网] 表示搜索标题中含有关键词"百度"和"互联网"的网页。 9. 在url中搜索在"inurl: "后加url中的文字,可以限制只搜索url中含有这些文字的网页。 例如, [inurl:mp3] 表示搜索url中含有"mp3"的网页;[inurl:网页] 表示搜索url中含有"网页"的网页;[inurl:china news] 表示搜索url中含有"china"和"news"的网页。 10. 搜索援助中心搜索援助中心的功能,是帮助网友寻找资料,教网友学习百度搜索技巧。如果您有什么内容找不到,如果您不熟悉百度搜索引擎,都可以登录 百度搜索援助中心 ,请网友帮您寻找。第一次发言要先注册。注册链接在该网页右上方。注册非常简单,只要填写用户名、密码和email即可。11. IE搜索伴侣IE搜索伴侣,是最新一代的互联网冲浪方式。它使IE浏览器地址栏增加百度搜索引擎功能,用户无须登录Baidu网站,直接利用浏览器地址栏,快速访问相关网站,或快速获得百度搜索结果。→点击这里了解或安装IE搜索伴侣12. 百度搜霸百度搜霸工具条将安装于IE浏览器的工具列内,让您在访问互联网上任何网站时,随时使用Baidu搜索引擎轻松查找。提供的功能有:站内搜索、新闻搜索、flash搜索、关键词高亮、页面找词、自动屏蔽讨厌的弹出窗口。

3. 搜索引擎是如何搜到的网站的???

在浩如烟海的Internet上,特别是其上的Web(World Wide Web万维网)上,不会搜索,就不会上网。网虫朋友们,你了解搜索引擎吗?它们是怎么工作的?你都使用哪些搜索引擎?今天我就和大家聊聊搜索引擎的话题。 

一、搜索引擎的分类 

获得网站网页资料,能够建立数据库并提供查询的系统,我们都可以把它叫做搜索引擎。按照工作原理的不同,可以把它们分为两个基本类别:全文搜索引擎(FullText Search Engine)和分类目录Directory)。 

全文搜索引擎的数据库是依靠一个叫“网络机器人(Spider)”或叫“网络蜘蛛(crawlers)”的软件,通过网络上的各种链接自动获取大量网页信息内容,并按以定的规则分析整理形成的。Google、百度都是比较典型的全文搜索引擎系统。 

分类目录则是通过人工的方式收集整理网站资料形成数据库的,比如雅虎中国以及国内的搜狐、新浪、网易分类目录。另外,在网上的一些导航站点,也可以归属为原始的分类目录,比如“网址之家”(http://www.hao123.com/)。 

全文搜索引擎和分类目录在使用上各有长短。全文搜索引擎因为依靠软件进行,所以数据库的容量非常庞大,但是,它的查询结果往往不够准确;分类目录依靠人工收集和整理网站,能够提供更为准确的查询结果,但收集的内容却非常有限。为了取长补短,现在的很多搜索引擎,都同时提供这两类查询,一般对全文搜索引擎的查询称为搜索“所有网站”或“全部网站”,比如Google的全文搜索(http://www.google.com/intl/zh-CN/);把对分类目录的查询称为搜索“分类目录”或搜索“分类网站”,比如新浪搜索(http://dir.sina.com.cn/)和雅虎中国搜索(http://cn.search.yahoo.com/dirsrch/)。 

在网上,对这两类搜索引擎进行整合,还产生了其它的搜索服务,在这里,我们权且也把它们称作搜索引擎,主要有这两类: 

⒈元搜索引擎(META Search Engine)。这类搜索引擎一般都没有自己网络机器人及数据库,它们的搜索结果是通过调用、控制和优化其它多个独立搜索引擎的搜索结果并以统一的格式在同一界面集中显示。元搜索引擎虽没有“网络机器人”或“网络蜘蛛”,也无独立的索引数据库,但在检索请求提交、检索接口代理和检索结果显示等方面,均有自己研发的特色元搜索技术。比如“metaFisher元搜索引擎”(http://www.hsfz.net/fish/),它就调用和整合了Google、Yahoo、AlltheWeb、百度和OpenFind等多家搜索引擎的数据。 

⒉集成搜索引擎(All-in-One Search Page)。集成搜索引擎是通过网络技术,在一个网页上链接很多个独立搜索引擎,查询时,点选或指定搜索引擎,一次输入,多个搜索引擎同时查询,搜索结果由各搜索引擎分别以不同页面显示,比如“网际瑞士军刀”(http://free.okey.net/%7Efree/search1.htm)。 

二、搜索引擎的工作原理 

全文搜索引擎的“网络机器人”或“网络蜘蛛”是一种网络上的软件,它遍历Web空间,能够扫描一定IP地址范围内的网站,并沿着网络上的链接从一个网页到另一个网页,从一个网站到另一个网站采集网页资料。它为保证采集的资料最新,还会回访已抓取过的网页。网络机器人或网络蜘蛛采集的网页,还要有其它程序进行分析,根据一定的相关度算法进行大量的计算建立网页索引,才能添加到索引数据库中。我们平时看到的全文搜索引擎,实际上只是一个搜索引擎系统的检索界面,当你输入关键词进行查询时,搜索引擎会从庞大的数据库中找到符合该关键词的所有相关网页的索引,并按一定的排名规则呈现给我们。不同的搜索引擎,网页索引数据库不同,排名规则也不尽相同,所以,当我们以同一关键词用不同的搜索引擎查询时,搜索结果也就不尽相同。 

和全文搜索引擎一样,分类目录的整个工作过程也同样分为收集信息、分析信息和查询信息三部分,只不过分类目录的收集、分析信息两部分主要依靠人工完成。分类目录一般都有专门的编辑人员,负责收集网站的信息。随着收录站点的增多,现在一般都是由站点管理者递交自己的网站信息给分类目录,然后由分类目录的编辑人员审核递交的网站,以决定是否收录该站点。如果该站点审核通过,分类目录的编辑人员还需要分析该站点的内容,并将该站点放在相应的类别和目录中。所有这些收录的站点同样被存放在一个“索引数据库”中。用户在查询信息时,可以选择按照关键词搜索,也可按分类目录逐层查找。如以关键词搜索,返回的结果跟全文搜索引擎一样,也是根据信息关联程度排列网站。需要注意的是,分类目录的关键词查询只能在网站的名称、网址、简介等内容中进行,它的查询结果也只是被收录网站首页的URL地址,而不是具体的页面。分类目录就像一个电话号码薄一样,按照各个网站的性质,把其网址分门别类排在一起,大类下面套着小类,一直到各个网站的详细地址,一般还会提供各个网站的内容简介,用户不使用关键词也可进行查询,只要找到相关目录,就完全可以找到相关的网站(注意:是相关的网站,而不是这个网站上某个网页的内容,某一目录中网站的排名一般是按照标题字母的先后顺序或者收录的时间顺序决定的)。 

一个好的搜索引擎,不仅数据库容量要大,更新频率、检索速度要快,支持对多语言的搜索,而且随着数据库容量的不断膨胀,还要能从庞大的资料库中精确地找到正确的资料。 

⒈提高搜索引擎对用户检索提问的理解。为了提高搜索引擎对用户检索提问的理解,就必须有一个好的检索提问语言。为了克服关键词检索和目录查询的缺点,现在已经出现了自然语言智能答询。用户可以输入简单的疑问句,比如“如何能杀死计算机中的病毒”,搜索引擎在对提问进行结构和内容的分析之后,或直接给出提问的答案,或引导用户从几个可选择的问题中进行再选择。自然语言的优势在于,一是使网络交流更加人性化,二是使查询变得更加方便、直接、有效。就以上面的例子来讲,如果用关键词查询,多半人会用“病毒”这个词来检索,结果中必然会包括各类病毒的介绍,病毒是怎样产生的等等许多无用信息,而用“如何能杀死计算机中的病毒”检索,搜索引擎会将怎样杀死病毒的信息提供给用户,提高了检索效率。 

⒉垂直主题搜索引擎有着极大的发展空间。网上的信息浩如烟海,网络资源以惊人的速度增长,一个搜索引擎很难收集全所有主题的网络信息,即使信息主题收集得比较全面,由于主题范围太宽,很难将各主题都做得精确而又专业,使得检索结果垃圾太多。这样以来,垂直主题的搜索引擎以其高度的目标化和专业化在各类搜索引擎中占据了一席之地。目前,一些主要的搜索引擎,都提供了新闻、Mp3、图片、Flash等的搜索,加强了检索的针对性。 

⒊元搜索引擎,能够提供全面且较为准确的查询结果。现在的许多搜索引擎,其收集信息的范围、索引方法、排名规则等都各不相同,每个搜索引擎平均只能涉及到整个Web资源的30-50%,这样导致同一个搜索请求在不同搜索引擎中获得的查询结果的重复率不足34%,而每一个搜索引擎的查准率不到45%。元搜索引擎(META Search Engine)是将用户提交的检索请求发送到多个独立的搜索引擎上去搜索,并将检索结果集中统一处理,以统一的格式提供给用户,因此有搜索引擎之上的搜索引擎之称。它的主要精力放在提高搜索速度、智能化处理搜索结果、个性化搜索功能的设置和用户检索界面的友好性上,查全率和查准率都比较高。 

四、主要的搜索引擎介绍 

这里介绍的是在国内外影响比较大的主要的一些搜索引擎和分类目录站点,由于现在的站点一般都同时提供全文搜索和分类目录两种服务,所以我们按照其自有的技术进行分类和介绍。 

一主要的全文搜索引擎 

⒈Google(http://www.google.com/)。Google成立于1997年,几年间迅速发展成为世界范围内规模最大的搜索引擎。Google数据库现存有42.8亿个Web文件,每天处理的搜索请求已达2亿次,而且这一数字还在不断增长。Google借用Dmoz(http://dmoz.org/)的分类目录提供“网页目录”查询(http://www.google.com/dirhp?hl=zh-CN&tab=wd&ie=UTF-8&oe=UTF-8&q=),但默认网站排列顺序并非按照字母顺序,而是根据网站PageRank的分值高低排列。 

⒉百度(http://www.baidu.com/)。百度是国内最早的商业化(早期为其它门户网站提供搜索服务,现在的竞价排名更是日进斗金)全文搜索引擎,拥有自己的网络机器人和索引数据库,专注于中文的搜索引擎市场,除有网页搜索外,百度还有新闻、MP3、图片等搜索,并在2003年底推出“贴吧”、按地域搜索等功能。 

⒊中国搜索(http://www.huicong.com/)。中国搜索的前身是慧聪搜索,原慧聪搜索在联合中国网等30多家知名网站的基础上,2002年9月25日,正式组建了中国搜索联盟,经过一年多的发展,联盟成员就已达630多家,成为中国互联网一支重要的力量。由于发展迅速,慧聪集团借上市之机,将慧聪搜索更名为中国搜索,全力发展其在搜索引擎方面的业务,以打造中文搜索领域的全新品牌。 

二主要分类目录 

⒈雅虎中国分类目录(http://cn.yahoo.com/)。雅虎中国的分类目录是最早的分类目录,现有14个主类目,包括“商业与经济”、“艺术与人文”等,可以逐层进入进行检索,也可以利用关键词对“分类网站”进行搜索(http://m6.search.cnb.yahoo.com/dirsrch/)。此外,雅虎中国也可以对“所有网站”进行关键词搜索(http://cn.search.yahoo.com/websrch/),早期,他的搜索结果使用Google的数据,2004年2月正式推出自己的全文搜索引擎,并结束了与Google的合作。 

⒉新浪分类目录(http://dir.sina.com.cn/)。新浪的分类目录目前共有18个大类目,用户可按目录逐级向下浏览,直到找到所需网站。就好像用户到图书馆找书一样,按照类别大小,层层查找,最终找到需要的网站或内容。通过和其它全文搜索引擎的合作,现在,也可以使用关键词对新浪的“分类网站”或“全部网站”进行搜索。 

⒊搜狐分类目录(http://dir.sohu.com/)。搜狐分类目录把网站作为收录对象,具体的方法就是将每个网站首页的URL地址提供给搜索用户,并且将网站的题名和整个网站的内容简单描述一下,但是并不揭示网站中每个网页的信息内容。除此之外,也可以使用关键词对搜狐的“分类目录”或所有网站进行搜索。 

⒋网易分类目录(http://search.163.com/)。网易的分类目录采用“开放式目录”管理方式,在功能齐全的分布式编辑和管理系统的支持下,现有5000多位各界专业人士参与可浏览分类目录的编辑工作,极大地适应了互联网信息爆炸式增长的趋势。在加强与其它搜索引擎合作的基础上,新版搜索引擎支持使用关键词对所有网站进行检索。 

实际上,搜索引擎的众多技术都是高度保密的,以是仅仅是笔者的一些愚见,不足之处,还请众大虾批评指正。



你向百度、Google、Yahoo提交网址是不用花钱的,其提交页面分别为: 
http://www.baidu.com/search/url_submit.html 
http://www.google.com/intl/zh-CN/add_url.html 
http://www.yisou.com/search_submit.html?source=yisou_www_hp

搜索引擎是如何搜到的网站的???

4. 如何做好搜索引擎营销

一、定词
      定词,即定位网站是做什么的,需要分析该网站成立的目的是什么,是想通过网站卖产品,还是提供服务的,然后围绕这些内容,定下主关键词。

搜索引擎营销
二、选词
     选词,是选出并确定网站首页标题中要优化的3~5个核心关键词。网站主要由首页, 栏目页,产品页,内容页等几个页面主成,对于网站来说首页权限是最高的,然后是栏目页,内容页。
1.什么是关键词
      关键词就是指用户为了寻找某个产品或者服务,从而在搜索引擎框中输入的文字。
2.关键词的作用
      关键词的作用就是让用户在所搜某个跟我们的产品或业务相关的关键词时,我们的网站能够排到搜索结果的前面,这样当用户单击我们的网站时精准流量就来了,最终实现销售。
3.什么是核心关键词
      我们不能把所有关键词全部放在网站首页标题中,因此标题的位置有限,放30个汉字为佳。因此我们需要从多个关键词中选3~5个与业务最相关,转化率最高的词,作为网站重点关键词进行优化排名,这个词我们成为核心关键词。
4.核心关键词如何选择
(1)自我分析,头脑风暴。(2)分析竞争对手的网站(3)百度关键词规划师工具
5.研究关键词的竞争程度
(1)分析SEO竞争对手的数据(2)看搜索结果页面的相关搜索数(3)看关键词搜索量
6.确定网站标题
(1)标题也叫title,是网站的名称每个网站的页面均匀标题,并且每个页面标题都不要一样。(2)标题的长度。网站标题要控制在30个汉字以内,如果标题太长,比如写了60个汉字,那么超出部分在百度中无法显示,多出的字会被省略号代替(3)关键词间隔符号的作用。设置网站标题时,不同的关键词之间要用符号隔开,让搜索引擎和用户更好地识别网站是做什么的。
三、布词
      核心关键词选出来了,并且组合成标题放置在首页了,接下来需要将核心关键词布局到页面的各个位置,增加相关性,这一步骤成为布词。
1.布词的意义
      简单的来说就是把核心关键词合理放置在页面的各个位置上,并且让核心关键词达到一定的数据数量和密度,让搜索引擎以为你的网站和用户搜索的词相关,并而提升词在搜索引擎的排名,这就是关键词布词的意义。
2.布词的位置
(1)在网站的标题中布局关键词(2)在描述中布局关键词(3)在keywords中布局关键词(4)在导航中布局关键词(5)在板块名称和文章标题中布局关键词(6)在底部版权和友情链接中布局关键词
3.关键词的密度
     在布局关键词时,还要注意词的密度,不是密度越大越好,根据经验,关键词密度为2%~8%是比较理想的一个数值。
四、挖词
     挖词是指针对用户的搜索行为,需求和习惯,找到用户会搜索到各种词,然后根据这些关键词来撰写内容,发布到网站中,满足用户需求。
五、诊断
1.网站有404页面
      404页面就是当初用户输入了错误的网址,或页面背删除,不存在时,出现的页面
2.空间速度是否稳定
     测试空间速度是否稳定,打开的速度是否够快
3.页面URL是否静态化
     URL的中文意思是网页地址,也就是网址。URL分动态页面和静态页面,用SEO的角度来说,静态页面更有利于优化。
4.URL层次是否在4层
      URL层次就是指URL的深度,一个斜杠(/)代表一层,/越多,层次越深,层次越深,搜索引擎抓取越难,权重越低。
5.图片是否有ALT属性
      ALT标签实际上网站中图片的文字提示,用于对图片进行命名等描述说明的。
6.网站是否包含Robots文件
     Robots的全称是网络爬虫排除标准,网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。
7.是否做了域名首选域
      一个网站默认为有两个域名,一个是加WWW的:一个是不加WWW的。在搜索引擎眼中,这是两个不同的域名,因此,这两个都会给予权重和排名。为了将两个域名的权重集中到一起,我们要确定一个重点域名来优化,重点提升这个域名的权重和排名,这个域名就叫做首选。
8.网站是否有死链接
       死链接是指打不开的链接,当我们打开死链接时,会提示该页面无法显示。
五、反链
      反链又叫反向链接,通俗地讲,各种指向页面的链接都叫反链,反向链接可以把一个页面上的部分权重传递到另一个页面上,数量越多质量越高,被连接页面的权重就越高,可提升被连接页面关键词在搜索引起中的排名。
1.什么是内部链接
      内部链接,是指在同一网站域名下面之间相互链接(也称为站内链接)
2.内链有什么作用
(1)有利于抓取网站内容。(2)增加用户黏性。(3)提升关键词排名。
3.如何做内部链接
(1)网站导航。(2)面包屑导航。(3)上一篇,下一篇。(4)锚文本链接:锚文本链接也叫关键词链接就是指文章中某个关键词加上链接。(5)文章相关链接:相关文章是指的在文章页面的底部或走右侧,推一些与该文章相关的文章。(6)网站地图:网站地图又称站点地图,它就是一个页面,上面放置了网站上需要搜索引擎抓取未收录页面的链接。(7)Tags标签:Tags是一种更为灵活,有趣的文章或图片等信息的分类方式
4.什么是外部链接
      外部链接是指除了内链接以外,其他网站指向这个网站的链接。
5.如何做外部链接
      外链很重要,对于越小的网站越重要,因为大网站靠内链,小网站靠外链。增加外链的方法很多,应该说只要能留链接的第三方网站,都可以利用。(比如:1.论坛链接。2.友情链接等)

5. 如何让自己的网站在搜索中排名靠前?

在baidu上只要花钱就可以。 
google不知道行不行。 
但是花钱就可以列在右边的文字链接广告中。 




如何让搜索引擎收录我的站[转]

[原创]搜索引擎优化(SEO)菜鸟版@上官无耻 (上官无耻) 2005-5-11 12:19:23 
何谓“SEO”?简单的解释就是,通过人为的调整和设计,让你的网站在搜索引擎(主要以Google为主,baidu因为有竞价排名,人为对搜索结果的干扰很大,这也是为何有人说“Google是干事业的,百度是做买卖的”,不过只要你的网站在Google中能取得好名次,那么在其它搜索引擎中也不会太坏。)的搜索结果中排名靠前,靠前的好处不用讲,自然是增加网站被点击的机会了,很少有人喜欢去翻上10几页去找一个网站吧,当然,耐心好时间多的朋友例外,要么就是你有特别的目的,比如:帮女朋友找一首很老的歌,如果找不到,咱们就分手^_^

目前网上专业提供SEO服务的公司很多,鱼龙混杂,不管如何,他们共同的特点就是把自己说的神乎其神,与之接触必曰:“你的网站交给我优化,xx期限内,让你的网站出现在xx搜索引擎的xx位置上云云”,有这么厉害吗?还真有这么厉害,当然,我说的是那些有真本事的公司,不是骗子。

本人对SEO的了解也很有限,不过我不是骗子,呵呵,因为我没骗你钱,当然如果你看完了下边的文字觉得没什么意义,那我就是骗子了,因为我骗了你的时间,而时间=金钱。

关于SEO的经验、教程,网上有很多,什么“关键字密度”、“PR值”、“动态页面静态化”等等,感兴趣的朋友去Google一下就知道了,乍一看很复杂,不错,是很麻烦,但大家也不要敬而远之,SEO并没有你想象的那么神秘,理由:

1、没有人知道如何做才算得上是有效的SEO,因为所谓的SEO都是大家总结出来的既往经验,Google不可能让你随意的操纵它的搜索结果,否则天下岂不打乱?从这一点上说,所谓的SEO这一行当中的高手无非就是比你多过了几座桥,道熟而已,别把他们当神看,喝多也吐^_^

2、因为中文语法、构词的复杂性,国外SEO的经验并不符合我们的国情,也就是说能优化好一个英文网站并不等于能优化好一个中文网站,这也就意味着对于我们、中国人来说,优化自己的网站可能会简单一些,呵呵,因为个别用在英文网站上的招术到我们这里失效了,也就不用学了。

3、“谋事在人,成事在天”,不是说你对网站做了个把优化后你的网站一下子就跑到搜索结果的Top1了,因为还有网站流量、网站流量等多方面的因素,试想,一个无人问津的网站就是优化的再好,也难以想象它会被Google所青睐。所以,大家还是应该把心思放在如何网上网站内容和服务上,靠实力,靠网友的口碑,这才是一个网站真正的立足之地,而对于SEO,大家应该持有一个平和心态:我会尽量让自己的网站取悦Google,但不是为了取悦而取悦,甚至用歪门邪道作弊,绝没有好下场!

接下来,我就向大家介绍一下自己在SEO方面的心得体会,大家可以试着照做,未必有效,但绝对无害^_^

*页面主题优化

一个页面的部分是很重要的,许多SEO都坚信,Google会优先寻找这里的文字,因此好多网站就疯狂的在这里写下一堆关键字,希望增加被搜索的概率,就像我们的“电脑爱好者俱乐部”一样:


呵呵,你会觉得Google这么傻吗?这么容易就被一个title所左右了?其实,我们不妨老实一些,实事求是的写下自己网站的名字,当然,网站的名字要考虑好,最好包含网站的主要内容,比如说,如果你的网站是一个原创文学站点,可能会起名叫“雅文轩”,很好听,但不疼不痒,Google不会知道“雅文轩”是干什么的,那么这里你可以写成“雅文轩原创文学”就好多了。

*页面头部优化

页面头部指的是代码中部分,具体一点就是中的“Description(描述)”和“Keywords(关键字)”两部分,这部分也是SEO们比较花心思的地方,理论一大堆!总结起来就是:

1、“描述”部分应该用近乎描述的语言写下一段介绍你网站的文字,在这其中,你应该适当的对你网站的特色内容加以重复以求突出,比如:


这是我的朋友帮一个宠物店(http://longmao.com.cn/)制作的网站,他在描述中就恰到好处的介绍了网站的内容,同时反复强调了“龙猫”二字,这是比较合理的,而相比下边这家网站的描述那:


这只能被搜索引擎忽略,因为很明显这是在堆积关键字愚弄搜索引擎程序。

2、“关键字”部分也很简单,你只需在这里列出你认为合适的,能突出网站内容的关键字就可以了,不要太多,10个8个就可以了,多了也没用,搜索引擎只会浏览靠前的几个,余下的都是浪费。不过有一点大家要明白,现在的主流搜索引擎都不再依靠中的关键字了,因此,这部分内容我们也只是“例行公事”,个人觉得意义不大,不过总好过没有。而且关键字的选择也是一门学问,具体可以参考网上的相关文章,别像下面这个网站这样做无聊的重复,显得太傻。


*超链接优化

搜索引擎为何可以能够索引全世界的网站,是因为各个搜索引擎程序中都有一个会自动“爬行”于互联网上的智能机器人程序,这个机器人就是顺着网站之间的链接游览世界的,那么我们就应该为它创造一个良好的爬行通道——合理的设置链接。

怎样的链接才是合理的呢?你只需牢记以下几点:

1、采用纯文本链接,少用,最好是别用Flash动画设置链接,因为搜索引擎无法识别Flash上的文字,许多公司、个人都喜欢酷酷的Flash动画,网站的入口也做成Flash片断,呵呵,这么做在目前几乎就是“自寻死路”,搜索引擎很难光顾这样的网站。而且个别设计者非常马虎,把网站的入口链接放在了Flash上,有时因为网络繁忙、缺少Flash插件而导致用户根本就看不到网站的内容,失败,失败中的失败。

2、按规范书写超链接,就像这样:论坛 ,别小看这个title属性,它既可以起到提示访客的作用,也可以让搜索引擎知道它要去哪里,注意,别写的太罗嗦:title="电脑爱好者论坛是全中国最酷最好的论坛" ,这么写的人八成精神有问题,而且时间富余的很。

3、最好别使用图片热点链接,理由和第一点差不多。

*图片优化

图片优化不是让你修改图片的大小、颜色,而是你应该为每个标签加上alt属性,就像这样: ,alt属性的作用是当图片无法显示时以文字作为替代显示出来,而对于SEO来说,它可以令搜索引擎有机会索引你网站上的图片,大家都用过baidu和google的图片搜索功能吧,你以为搜索引擎是怎么找到图片的,不会以为Google能看懂图片吧!?对于一些确实没什么意义的图片,最好也不要省略alt,而应该留空,即 alt=""。

*为网站制作一个“网站地图”

什么是网站地图?说白了就是一个页面,在这个页面上呢,列出了你网站中各个栏目的入口地址,就像这个(http://longmao.com.cn/sitemap.htm),站点地图的作用很大,首先,对于一个栏目众多的网站,它可以帮助访客最快速度找到所需的内容;二则,可以给搜索引擎提供一份自己网站的“鸟瞰图”,方便搜索机器人依次索引整个网站。

*PageRank(pr值)

PR值是Google提出的一个重要参数,它标明了某个网站的重要程度,那么pr值是如何确定的呢?目前普通的解释为:假如有ABC三个网站,彼此互作友情链接,那么当一个访客通过A上的友情链接来到B时,Google就认为A为B投了“一票”,同理,如果有人从C访问B,那么B又得一票,如果全世界的网站上都有B的友情链接,呵呵,可想而知,B就是世界上最重要的网站了!

那么如何提供我们自己的pr哪,找别人交换链接啊!不过不能乱找,也不能狂找,而应该找一些和自己网站内容相近,且较为优秀的网站,当然,你自己的网站也不能太差,谁会愿意和一个臭棋篓子下棋啊^_^

切记!不要疯狂的交换链接,如果你的首页上一下子搞了几百个友情链接,呵呵,Google不但不会提升你的pr,没准还得认为你作弊,从而把你从自己的数据库中删除,到时你就哭吧。

*静态页面与动态页面

目前所有的SEO都认为,Google一类的搜索引擎会尽量避免索引带有参数动态页面,而喜欢索引普通的静态页面,这一点并未得到Google等搜索引擎的明确回答,但从效果来看是这样,毕竟动态页面的变数太大,举个例子,你发了一个帖子,可能在论坛某板块的第1页上,可随着跟贴的增加你的发言可能就被挤到第10页上了,你说搜索引擎是不是很头疼啊。

因此,制作网站的时候,最好避免使用动态页面,或者改良技术,让动态页面自动生成对应的静态页面,既能便于搜索引擎收录,也可以降低网站服务器、数据库负担,一举两得,不过这也不是觉对的,还是那句话,网站流量决定一切,即便是一个全部采用动态页面的网站,但因为很受欢迎访客不断,那么它还是会被搜索引擎青睐,还是会出现在搜索结果的前列。而且,随着技术的进步,搜索引擎也会改进,搜索动态页面将来必定会更加容易。

*避免大“体积”的页面

有经验标明,搜索引擎不喜欢索引大体积的页面,即一个页面代码部分的体积不要太大,控制在100kb内为佳,我见过一个网站,其首页光HTML代码部分的体积就高达近300kb,呵呵,每次浏览它都相当于下载一个小软件了,多亏现在是宽带,要是以前用56k小猫,非得以为死机了不可。

*最重要的一点!合理的代码结构

搜索引擎喜欢格式清晰,结构分明的页面,理论上XML是最合乎搜索引擎的胃口了,呵呵,当然,这太极端了,不过如果采用最新的XHTML+CSS技术将页面数据同表现分离,即避免大量嵌套表格和其它冗余的代码还是能够完美实现这一要求的。为了说明这个问题,请允许我再次帮朋友的网站做下广告,呵呵,别看广告,看疗效!

案例1:http://www.jitapu.com/

这个网站是朋友2个月前开办的,内容是为吉他爱好者提供曲谱,网站本身并未作特别的优化,但是在页面制作上完全采用了符合web标准的XHTML 1.0 + CSS2技术构建,大家可以看一下它上面每个页面的源代码,是不是非常清晰,没有通常所见的凌乱的表格嵌套?就是这么一个个人站点,Google中“吉他谱”搜索排名第一,“吉他”搜索也是前2页;就因为这样,每天都有大量寻找吉他谱的人通过Google找到这里,根本不用他费力去做什么宣传,羡慕+嫉妒!

案例2:http://longmao.com.cn/

一个专门销售宠物龙猫的店铺主页,建立时间近半个月,流量少得可怜,但因为同样采用了web标准开发,同时进行了适当优化,目前在Google中以“龙猫”为关键字搜索就进入了前3页;以“龙猫价格”搜索,排名第一页第二位,而这两个关键字的使用频率还是很高的。

之所以举这两个网站,一来是想帮朋友宣传一下,二来是两个网站从建设开始我都是一直关注的,他们在搜索结果中的排名变化也是我亲眼目睹的,因为我和朋友都对SEO都不是很了解,但就是因为采用了web标准制作页面,让网站页面有了一个非常清晰的结构,也许真的就碰巧迎合了Google的搜索习惯了吧。当然,XHTML对于一些朋友还是有难度的,不过大家同样可以采用正确的HTML 4.01标准制作页面,窍门就是一个:多多使用CSS样式,减少代码中的修饰部分,比如文章标题就应该采用

来表示,段落就采用
而不是
等等,这部分细说起来很麻烦,需要大家自己学习研究,现在国内的专业SEO们也开始重视XHTML技术,因为他们发现,XHTML可以切实满足建立一个“结构良好、条例清晰”的页面的这个要求。

好了,我本人的心得就是这么多,SEO是一个考经验取胜的领域,学习它不是那么直观,重要的是提高自己的技术、平时注意观察、多留意这方面的新闻。现在国内有人出了一本专门讲授SEO经验的电子书,售价高达2、3千元,大家还是不要相信的好,不是说这个人是骗子,只是这门技术变化太快,如果自己没有这个悟性的话,今天学会了明天就可能用不上了,白白浪费钱财。

如何让自己的网站在搜索中排名靠前?

6. 除了百度知道,还有其它网站是类似于百度知道的?

1. Yahoo!(http://www.yahoo.com) 
Yahoo!是目前最常用的引擎之一,是Internet引擎的"元老"。 
Yahoo!的使用很简单,可以直接输入查找关键字,也可以先选分类主题进行分类查询 
,它将返回三种信息: 
1. 满足查询条件的Yahoo目录(用户可以利用它们进行交叉引用); 
2. 满足条件的实际站点; 
3. 更广泛的含有页面索引的Yahoo!目录,是一种更 广泛的交叉引用。 
Yahoo!也提供了一些简单的高级查询,其配置选项有: 
S搜索的范围:Yahoo(缺省)、Usenet或E-mail Address; 
S搜索词之间的关系:OR或AND(缺省); 
S可以进行子串搜索,将其设置Substrings或Complete words两种,其中Substrings将 
我们输入的词作为一个子串,Complete words表示进行完整的单词搜索,缺省是子串搜索 
·控制每页显示的结果数目:10、25(缺省)、50或100。 
Yahoo!在高级查询上并不是很完善,但是Yahoo!在其主页的末尾提供了其他引擎如A 
ltaVista的超连接,如果用户在Yahoo!查不到所需资料,Yahoo!可以到这些地方去搜索。 
从而弥补了Yahoo!的一些缺陷。 
2. InfoSeek(http://guide.infoseek.com) 
InfoSeek是一个高效的搜索引擎,它的特点是:搜索精度高,查到的节点一般都与用 
户的要求相符。其搜索结果按照相关程度依次显示。每一个结果显示该HTML文件的标题 
、摘要、大小。 
InfoSeek引擎拥有最好的搜索参数的集成,它允许用户在填写查寻要求时可以随心所 
欲地不厌其详,而它在后台则施以适当的逻辑组合。这就意味着,用户可以忽略如何使用 
搜索引擎,只要集中精力把自己想提的问题写好就行了。 
InfoSeek数据库中每一网页的所有文本都被检索,它的搜索具有"事件敏感性"(case 
sensitive),即对某些名字进行搜索时,搜索的效率会明显提高。用户输入一个短语后,I 
nfoseek会使用与短语最接近的排位方法,提高搜索结果的相关性。 
InfoSeek可以提供以下的搜索范围: 
SWeb:在整个WWW信息系统内查找; 
SNews:在实时新闻中查找; 
SCompany:在公司名目中搜索; 
SNewsgroups:在新闻组中搜索。 
Infoseek的搜索方法包括: 
1. 词组(短语)搜索 这时需对词组加上双引号,以示与单个词的区别; 
2. 查找同时出现的词 对所要搜索的关键词加上[ ],表示括号内的词在文本中出现 
时,其间隔不超过100个词。 
3. AltaVista(altavista.digital.com) 
AltaVista自1996年12月开始服务以来,引起了世界各地网民的广泛注意,每天都要 
接受200万次以上的访问。AltaVista自诩拥有2100多万全文索引的网页,可以称得上是最 
大的网络搜索数据库。 
相对其他搜索引擎而言,AltaVista的搜索结果总是比其他任何站点的搜索结果内容 
更丰富,AltaVista的搜索范围大得惊人,有人说能对网络的天涯海角进行彻底搜索的仅此 
一家,就连一些鲜为人知的偏僻站点也能找到。所以,使用AltaVista时,要花更多的时间 
在搜索结果里寻找自己想要的信息。不过,如果你的目的就是想找到关于某个主题的站点 
,多多益善,那么AltaVista是最好的选择。 
根据检索的对象,AltaVista搜索引擎提供三大类信息检索:Web检索和新闻组检索、 
商业检索以及人物检索。除公共检索服务外,AltaVista还提供免费E-mail、页面翻译等 
相关服务。它的搜索方法分为简单和高级两种。 
1. 简单搜索 
AltaVista搜索引擎推荐使用的检索方法, 是直接使用自然语言输入检索提问。检索 
提问可以是自然语言的单词、词组或短语以及完整的问题。对使用AltaVista的最有用的 
建议是, 由于它的索引是基于整个单词的正文的,在描述查找的单词时越精确越好,还要 
去掉那些不感兴趣的单词。 
2. 高级搜索 
高级搜索包含了简单搜索的所有特性,还可以有布尔和接近操作符、括起来的逻辑组 
合等。AltaVista支持二元操作符AND、OR、NEAR和一元操作符NOT。 
AltaVista的接近操作符(NEAR)很有特色。可以使用NEAR/n,n是两个被搜索词之间的 
单词的数目,如:Microsoft NEAR/5 Internet表示在"Microsoft"和"Internet"这两个关 
键字之间的单词数目不得超过5个。如果不输入n,表示两个词挨在一起。为了控制挨在一 
起的两个词之间的顺序,可以使用 ADJ 操作符,如:Microsoft ADJ Internet,表示Micro 
soft 必须在Internet之前。 
4. Lycos ( http://www.lycos.com) 
Lycos是最老资格的搜索引擎之一,只要能给出准确的搜索结果,Lycos通常能给出最 
全面的结果(基本上与AltaVista相同)。 Lycos的搜索范围分的较细,这样可以减少命中 
的数量,可选择的项目有: 
The Web、Web Site Reviews、Personal Home- pages、Message Boards、Reuters 
News、Weather (city)、Cities、Dictionary、Stock (symbol)、Music (artist)、B 
ooks、Pictures、Sounds、Downloads、Recipes等。 
Lycos不是周期性地更新数据库,而是采用累积的形式构筑数据库。在对新的和原来 
存在的数据库进行信息升级时,Lycos软件通过观察其他站点通向某一站点的链接数而评 
价这个站点的知名度。然后引擎在每次搜索时都使用这一知名度索引,所以每次搜索结果 
的相关性在一定的程度上取决于站点的相对知名度。 
Lycos搜索结果的容量非常之大,你如果试图在网上迅速找到某个内容,Lycos不是最 
好的选择,如果你需要对网上的内容广进博收,多多益善,Lycos可能会为你找到一些其他 
站点找不到的内容。 
Lycos在支持逻辑搜索和高级搜索功能方面较弱。 
Lycos不提供要求/排除单词的功能, 但可以在一个单词前加一个"-"号,表示在给结 
果定等级时,不考虑这个单词。 
Lycos的通配符是$符号。如gen$ 表示 genetic、 genesis、general等。它还提供 
了英文句号(.)的使用,可以禁止扩展一个单词。如gene.,只能得到gene,而得不到genet 
ics和general。 
5. Excite(http://www.excite.com) 
Netscape在其Navigator浏览器的NetDirectory命令条中选中了Excite作为其中的一 
个链接,这使Excite的知名度明显提高。众多的访问大大提高了Excite站点的流通量。 
Excite使用的是基于关键词或基于概念的正文和主题搜索。概念搜索是指搜索引擎 
不只简单地查找含有要查找的单词的文档,同时还搜索与要查找的概念相关的文档。缺省 
的查找是概念查找。Excite既提供网络搜索引擎,又提供以类目形式组织起来的网络目录 
(类似于Yahoo的目录索引)。 
Excite中要求的单词和排除的单词的使用方法同AltaVista一样,使用+号和-号,Exc 
ite支持二元操作符AND、OR 和一元操作符NOT,它也支持用括号来构成逻辑组。 
6. Webcrawler(http://www.webcrawler.com) 
Webcrawler 是一个杰出的搜索引擎, 它的界面有些像 AltaVista。实际上,它在 
高级搜索方面的功能要比AlataVista强。它提供事先分好类的19个主题,实现了基于主题 
的搜索。 
Webcrawler号称支持"自然语言搜索",所以可以输入像"highest mountain in the 
world(世界上最高的山)"这样的查询条件。它抛弃了无意义的词,对其余的词做模糊的A 
ND搜索,含有所有的词的页面等级最高, 但也能查到只含一个词的页面,这是那些最佳引 
擎的通用策略。 
Webcrawler的词组、逻辑和接近操作符的使用类似于AltaVista。Webcrawler不支 
持要求/排除的单词的查找,也不支持通配符。 
WebCrawler的主要缺点是,它对搜索到的每个条目都不显示文本内容摘要。用户只能 
看到网页题目和显示WebCrawler相关性排名的数字。所以,除非网页题目直接描述网页内 
容,否则用户只能到这个站点访问,才能得知其网页内容。 
在互联网上,中文内容只占约4%,绝大多数是英文内容,所以只有掌握英文搜索才能真正的深入互联网。但是,英文搜索引擎很多,变化也很快,应该用哪个搜索,和怎么搜索呢?今天,我就来介绍几个最有代表性的英文搜索引擎。 
Ask (www.ask.com,又名askjeeves) 

Ask是一个支持自然提问的搜索引擎,它的数据库里储存了超过1000万个问题的答案,只要你用英文直接输入一个问题,它就会给出问题答案,如果你的问题答案不在它的数据库中,那么它会列出一串跟你的问题类似的问题和含有答案的链接,供你选择。 


根据网友们的使用经验,当你遇到一些属于事实型、原理型的问题时,使用Ask是最方便的。例如:“美国历任总统中就任时年纪最轻的是谁?”、“阿富汗的首都叫什么?”、“飞机是哪一年发明的?”、“雪为什么是白的?”、“为什么吃豆子的人爱放屁?”、“恐龙为什么灭绝?”、“后街男孩的网站在哪里?”。你还可以问它各种奇怪的问题,例如:“现在几点了?”、“罗马帝国为什么崩溃?”、“圣诞老人住在哪儿?”,它都会给你答案的。 

dmoz(www.dmoz.org,又名ODP) 

有的网友不喜欢自己输入英文单词搜索,而是喜欢用鼠标点击分类目录随意浏览,那么我向你推荐dmoz。 


dmoz是互联网合作共享精神的结晶,它的4万多名志愿编辑都是各行各业的专业人员,大家走到一起免费制作dmoz,提供给任何个人和组织免费使用。dmoz已经收录了40多万子目录和近300万个网站,是世界上最大的、也是最好的网站分类目录,已经被世界各国400多个网站选做默认搜索引擎。dmoz使用起来非常方便,它提供相关目录使你不容易漏掉其它目录里的的相关内容,它还用一颗小星星推荐各个目录下最好的网站,使初学者不会被太多的网站弄迷途。 


另外,任何人都可以申请成为dmoz的搜索引擎编辑,你也可以去申请,尝试一下亲自做搜索引擎编辑的感觉,不过,要被批准可得有点实力才行哦。 

Google(www.google.com) 

Google是在国外很受欢迎的搜索引擎,界面简洁,以搜索结果的准确性著称,它的网页快照和图片搜索也很有特色。 
网页快照就是网页的备份,你在Google搜索的时候,如果发现某条搜索结果点不进去,是死链接,那么只要点击搜索结果旁边的网页快照(Cached),就能看到Google保存的备份网页。 


Google还有世界上最大的图片搜索引擎(images.google.com),收集了互联网上3.3亿张图片,如果你想找哪个偶像的照片、想找某个名胜的风景照、想找军事兵器图片、、、只要输入合适的英文单词,很容易找到满意的图片。 

search(www.search.com) 

search属于元搜索引擎,它收集了800多种专业搜索引擎和数据库,分为商业金融、娱乐、健康医药、新闻媒体、评论、计算机、游戏、国际、寻人、购物、下载、政府、音乐、参考资料、旅行共15个大主题,每个大主题又分许多小主题。 

当你进入任何一个主题搜索的时候,它都可以同时搜索这个主题下的多个专业搜索引擎和数据库,然后在一个页面上显示来自不同搜索引擎的搜索结果。 

比如进入大主题“新闻媒体”搜索,它把搜索结果分为头条新闻、商业新闻、体育新闻、娱乐新闻、科技新闻、杂志、报纸,如果再进入小主题“科技新闻”搜索,那么它可以同时搜索CNET、PC World、ZDNet、IDG.net、TechWeb这5个著名的科技新闻网站,足够保证你得到最全最新的科技新闻。 

好了,每个搜索引擎都有独特的优缺点,不同的需要就应该使用不同的搜索引擎。 
如果你搜索英文内容,那么我给你推荐的使用习惯是:上网随便逛逛就用dmoz,平时搜索就用google,有问题就问ask,要做特定的主题搜索就用search.com。

7. 怎么能快速浏览网站上的图

用以下软件试一下: 

1. WebZip 7.03 中文语言包 
WebZip 把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 

2. 网站全额下载器 2002 
“网站全额下载器”是一个离线浏览的最佳工具。只要几分钟就可以将一个网站全部下载。包括网站内的图片、文字、程序、软件.....等。所以这也是研究别人网站的最好帮手。 

3. WebZip 7.0.3 
WebZip 把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 

4. 离线浏览助理Webdup 0.93 Beta 
Webdup能够把您想要浏览的信息(如网页和图片等)预先下载下来,保存在本地硬盘,使您可以从本地进行离线浏览,这样不仅可以大大减少上网时间,降低上网费用,还可以加快浏览速度;并且将来无须上网就可以很方便地查阅这些信息。不仅如此, Webdup更提供了备份历次下载记录和比较完善的管理功能,使您能够方便地分类保存和管理有价值的下载信息。 Webdup的当前版本实现了以下功能:1.支持HTTP和FTP下载,并支持HTTP和Socks5代理服务器;2.支持多线程下载;3.支持断点续传;4.可按URL和文件后缀名设置过滤,只下载所需文件;5.自动识别下载过的文件是否更新过,减少重复下载;6.可设置定时下载和定时停止;7.支持自动拨号和自动挂断;8.可导出和导入项目文件,方便用户交换网上资源;9.提供与浏览器(IE)的整合,方便快速地创建项目;10.支持项目和类别的拖拽操作,方便用户分类管理项目;11.能自动识别操作系统的语言,按需显示中文或英文。 

5. WebZip 7.0.0.1025 汉化版 
WebZip 是把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个网站全部或部份资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可预定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 此版本是直接汉化程序文件,不同于汉化语言文件,汉化较彻底,但仍然有极个别字符没能彻底汉化,但不影响使用。因为是汉化的程序文件,在汉化中对程序界面做了大量优化和美化工作。安装中可选择安装中文版本或英文版本,并可以选择是否注册软件。 

6. 木马专杀大师 2.6 
本软件采用了先进的程序行为智能判断技术。软件通过分析每个程序的机理来判断木马,不需要木马的特征码,可查杀未知木马。实时扫描内存中的每个程序,一旦发现木马,即时查杀。强力保障您的计算机、网络游戏帐号、QQ和邮箱帐号等不被木马侵害。 目前查杀病毒木马的软件基本都是采用了特征码查杀技术,也就是说用户要不断的下载和更新病毒木马库才能查杀最新的木马。这种方法的弊端很明显,因为每天都有新的木马出现,一旦木马库更新不及时,用户就面临着危险。而且软件的厂商也肯定不能把所有的病毒木马库找全。所以很多用户虽然安装了这些安全软件,帐号还是经常被木马窃取。因此一款好的木马查杀软件必不可少。 

7. Teleport Pro 1.40 
Teleport Pro所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。 

8. Weblinky 1.12简体中文版 
WebSlinky可以把站点拷贝到你的计算机里,你可以在方便的时候离线读取,不必等待下载的时间。此程序提供了一个简单的界面,使你能够进入你希望缓存到计算机中的站点地址(URL)中去。它还提供了WebSlinky保存站点文件的本地文件夹的路径和名字以及用户名和口令(如果站点要求).Name:CZY Code:1010107261 

9. 网络蜘蛛 1.0 
网络蜘蛛是一个自动搜索 HTML 页面并下载指定文件的软件。最初设计它是为了下载网站上的图片,想想看,面对那些动辄拥有数百幅图片的网站,你是否有耐心和时间一一点击查看和下载?而且在目前上网费用如此高昂的年代,在网站上慢慢地手工浏览和下载图片是不是太过奢侈了一点?如果你是一个图片收集爱好者得话,建议你试一试网络蜘蛛这个软件。它可以从你指定的地址开始,自动搜索网站并下载图片或其它软件。听起来似乎有点象离线浏览器或网站下载软件是吗?其实它们还是有些差别的,网络蜘蛛的设计目标主要是针对图片等一些比较零碎的、尺寸不是很大的文件的下载,并高度强调自动化工作和高可靠性。 

10. WebCHM 2.07.7507 
WebCHM(原WebSeizer测试版)是中国最强大的多线程离线浏览软件,专业的下载大型网站的工具。可以下载整个网站所有的文件,也可以只下载同一个目录的文件,还可以下载指定的层次。主要特色是可以下载超大型的网站(容量>10GB,文件数目>100万的网站),并且内置了CHM压缩引擎,可以灵活方便地将下载的网页制作成CHM压缩文档。下载大型网站时,可以边下载边压缩到CHM文档,以节省空间;下载几百篇文章的小说时,可以下载后再制作成可以在PDA上阅读的CHM格式的电子书。支持断点续传、在线升级、分类管理等功能,操作方便,体贴用户。 

11. Offline Explorer 4.1.2347 
相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 

12. BlackWidow 5.00 Beta 19 
一个非常简单易用的离线浏览器,它能列出你指定的站点的全部文件,你可以选择需要的文件下载。 

13. HTTrack 3.40 
一个相当容易使用的脱机阅览软件,能将网站传送到计算机目录里,并且会将所有相关链结重新组织,以方便更顺利的脱机浏览。 

14. Aeria Leech 4.3.3 
Leech是一个不错的离线浏览器,能够多线程下载多个文件。系统要求:IE4.0或更高版本。 

15. CopyWebsite 2.43 
离线浏览工具,仅仅需要输入需要下载网站的URL,所有的网页就可以被下载,包括图像和zip文件。 

16. 网页抓手(FileCatch) 1.07 
网页抓手(FileCatch)是设计来取代IE的另存为菜单的软件,能够嵌入到IE的右键菜单中后台形式保存网页,不打断浏览;此外,FileCatch仅仅保存网页而不包括图象,解决了一存一大堆的现象;FileCatch提供了自动生成一定意义名称的功能,使你不需要为命名烦恼;FileCatch通过智能补完相对地址到网页中,解决了保存的网页超链接丢失的现象;FileCatch能够将网页依耐的CSS嵌入保存到html文件中,保持网页的美观,逼进在线的效果;FileCatch支持对智能选项和代理服务器,使你方便的使用定制;FileCatch是免费软件,你可以自由的使用。 

17. Offline Explorer Pro 4.1.2348 
相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 

18. Teleport Ultra 1.40 简体中文版 
Teleport Ultra 所能做的,不仅仅是离线浏览某个网页 (让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从 Internet 的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。如果你也和我一样,曾想把整个网页抓回来慢慢欣赏,如果你也曾像我一样,费尽千辛万苦只为了重复抓取同一网站的文件而做一些机械性的动作,Teleport Ultra 简直是我们的救星!它可以迅速、确实地将整个网站复制在你的硬盘中,为您节省大笔的上网费用与时间。Teleport Ultra 是著名的离线浏览软件 Teleport Pro 版本的增强版! 

19. Teleport Ultra 1.40 
Teleport Ultra所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。如果你也和我一样,曾想把整个网页捉回慢慢欣赏,如果你也曾像我一样费尽千辛万苦,只为了重复捉取同一网站的档案而做一些机械性的动作Teleport Ultra 简直是我们的救星!它可迅速、确实地将整个网站复制在你的硬碟中,为您节省大笔的连线费用与时间。Teleport Ultra 是著名的离线浏览软件Teleport Pro版本的增强版!更新记录:1.新增了一项功能,使得该软件的Ultra, VLX, Exec, Exec/VLX版可以打开比较小的项目2.新增了可以在UNC卷上运行项目的功能3.在Exec和Exec/VLX版本中新增了API命令4.更新了所有版本的文档5.改进了脚本,可以处理更多的脚本命令6.改进了规则引擎7.修正了会取回一些不需要的URL的bug8.重新设置了Ultra版的试用期 

20. Offline Explorer Enterprise 4.1.2348 
相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 

21. WebCopier 4.3 
是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 

22. Offline Explorer Pro 2.2 汉化版 
相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 

23. Grab-a-Site 5.0 
这是一个离线浏览工具。你可以把喜欢的网站抓到本地硬盘上细细的欣赏甚至包括那些有密码保护的站点。还有过滤指定站点的功能。 

24. Black Widows 4.37 
可以让您建立Web站台的整个目录结构并将之储存以便日后利用,当您下载文件时,依您的选择进行建立下一个网站结构。您可以选择下载整个或部份的文件,也提供续传功能让您下载中断时使用。 

25. HTTrack Website Copier for Windows 3.40 Beta 4 
HTTrack是一个免费并易于使用的线下浏览器工具,它能够让你从互联网上下载整个网站进行线下浏览。浏览线下站点和线上并没有什么不同。HTTrack同样可以进行线下线上站点同步,支持断点续传。HTTrack是一个可全面配置并包括全面的帮助系统的工具。 

26. WebCopier 官方中文语言包 
是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 

27. BackStreet Browser 3.1 
BackStreet Browser是个离线浏览的好帮手。它的特性是,同时多个执行绪对目的网站做存取,充分利用频宽,不必受到网络traffic状况的延迟而拖长等待的时间。对于不想花费时间在无谓的等待的人,BackStreetBrowser是不错的选择。 

28. SuperBot 4.5 
SuperBot帮您将整个网站搬回家SuperBot是个全自动的离线浏览软件,您不需要做太多的设定,便可以将自己想看的网站给整个搬回家!SuperBot与一般的离线浏览软件最大的不同处在于它的操作使用相当简单,您只要设定好想要下载的网站路径以及下载网页存放的路径,SuperBot便可以自动为您进行网页下载的工作了,不过这坪要注意的是,如果您想要下载存放的网站相当大的话,您可能要花相当长的时间等待。 

29. SuperHTTP 1.0 
SuperHTTP是一套离线浏览软件,可以将整个网站按照目录结构顺序、超连结等,完整下载到硬盘离线浏览,也可以选择只下载图形文件或者其他文件,包括html、txt、pdf、doc、jpg、bmp、gif、png、mpg、mp2、mp3、avi、wav、mid、exe、zip等等,只需在设定中打勾或取消即可,不用一个一个输入文件类型,允许同时下载多个网站,以及显示下载进度功能。此外也提供搜寻引擎功能,可输入关键字搜寻所下载的网站来找出所要的文件或资讯。 

30. MemoWeb 3.3.05 
离线网络浏览器,以供使用者方便快速的直接在电脑中浏览这些网页。你可以选择是下载整个站点的所有的文件,还是下载首页,或者是某一个部分。同时它还支持下载多媒体文件,例如图片,声音,和视频动画。支持长文件名,断点续传,支持代理服务器。 

31. eCatch 3.0 
简单实用的离线浏览器。由使用者设定所要观看的网址及连结的层数,而直接抓取并建立一个「可浏览的连结网页」到使用者的电脑中,以供使用者方便快速的直接在电脑中浏览这些网页,可以监视及下载数以千计的网页以供离线观看。可自订组态抓取网页中的特殊文件,像是多媒体文件及自解压缩文件等。 

32. WebStripper 2.62 
是一个离线浏览器,可以快速、准确地将站点下载到你的硬盘中。它的使用非常简单,而且还提供了多个过滤条件,比如:图像文件的大小等,另外,它还可以提取新的或是升级的页面。 

33. DISCo Pump 3.1 
这是一个离线浏览器,具有交互性的界面,独一无二的文件树、浏览向导图、页面图标、预览选项。通过它你可以速度地将网页保存到本地,然后离线慢慢进行浏览。 

34. GetBot 3.04 
GetBot储存网页、抓文件两相宜用GetBot可以很快的将网页中所有的MP3文件或者图形文件。你只要将网址贴进GetBot位址列中,GetBot就会完整的显示出该网站的所有网页以及文件。然后你只要选取要下载的网页以及文件,按下get钮,GetBot就会帮你将所有文件抓回来了。而且GetBot也有续传的功能,不怕抓文件抓到一半断线。GetBot的使用算是很方便,甚至不需要安装,直接就可以执行。 

35. 帖子离线浏览器 1.2 
1.非常灵活:帖子左边的分类名称和roomid是根据xml文件动态给出的,您可以随便更改该文件从而显示不同的内容,正因为这样,所以他可以适应CSDN的任何改版。2.良好的兼容性:除了CSDN帖子外,通过修改xml配置文件可以适应任何的离线帖子和从网上收集的文章,同时导入选项也是xml个数的,非常方便扩充。3.绿色软件,不写注册表。4.强大的查找功能,可以查找任何一个论坛或子论坛,而且可以递归。 

36. 精华浏览器(MixBrowser) 1.7 简体中文版 
精华浏览器是一款精致的离线浏览软件,她可以帮你保存网页、图片和flash动画,并以网页的形式浏览整理它们,轻松拥有自己的精华区。有了她你就可以保留那些对自己工作和生活有益的文章、原创,精美的图片和有趣的flash动画在身边,使自己从疲劳的搜索再搜索,或“我记得在哪看过一篇文章”的遗憾中解脱出来,只需鼠标一点即刻保存。作为浏览器,她更拥有鼠标动作、安全浏览和集成搜索、关键字加亮等特色功能,让你的浏览更轻松、更舒适。 

37. Power Siphon 1.9.6.0 
这是个高效能的网络蜘蛛人,让你下载网站,或任何明确的网页。并储存到硬盘以便浏览使用。简单的提供网页的URL或任何其它开启的页面来下载整个网页,你可以实时观看下载进度,并且从硬盘中存取所有离线页面。此程序还提供了一个压缩已下载网页成为单一执行档案。嵌入的观看器让你看你已下载成功的页面,还包含滚动显示模式。 

38. WebCopy 99 1.7 
是一个可以直接将WEB 网页拷贝储存的软件,包括可以拷贝整个网页、文字、图像、声音及电子邮件等等,这样即可离线观看网页。 

39. 网络猎手 2.5 
这是一个很好的网上资料收集工具,在浏览器中,你可以通过右键菜单很方便的收集资料,你可以部分选取保存,也可以全部整页的保存,而且保存下来的页面更原来的一样。并且支持拖拉保存,使你可以将没有右键菜单的页面很好的进行保存。而且还提供了页面上一些文档链接(**.zip)的下载功能.下载下来的页面可以进行分类保存和编辑,并最终可以生成eBook(CHM)和HTML文件。 

40. Flash Favorite 1.4.8.5.8 
FlashFavori 允许你浏览下载到 Internet 临时目录中或当前打开的网页尚的 FLASH 文件。 

41. NewsVampire 1.4 
本软件的主要功能是将众多网站服务器上的网页快速下载到本地机硬盘上以供离线浏览。其特点是采用了多线程循环下载技术,可自动将数百个网页连同图片自动快速下载并存盘;用户可以一边下载,一边浏览已经下载的网页,从而最大限度地利用网络资源。全中文显示,支持HTTP代理服务器。 

42. CatchTheWeb Express 1.2 
CatchTheWeb Express不但是个网页浏览器,而且它还可以让使用者将网页从Internet抓取到电脑之中,然后重新组织安排各个网页的顺序、添加注解,而让这些网页具有如展示简报般的用途。只能一次抓取一个单一网页,所以单单在抓取网页的功能方面,并没有离线浏览程序那么好用,但是对于网页资讯的利用方面,却是一个不错的简报辅助软件。 

43. QuadSucker Web 3.1 
QuadSucker Web 是一个功能强大的离线浏览工具,它可以帮助你完整的将指定的网站中的所有文件和图片,压缩包,多媒体视频或者音频文件统统下载下来,完全自动化操作,不需要人为的干预就可以轻松完成所有的下载工作 .. 

44. Website Extractor 9.30 
该软件可以下载某个网站中符合您指定条件,如关键字、文件类型、大小等的文件。 

45. JOC Web Spider 3.72 
离线浏览器, 支持 VBScript & JavaScript。 

46. ImageSiteGrabber Pro 2.4.1 
可以让您直接指定要抓取的网页以及网站位置,然后就可以轻轻松松的将这些图形文件影像给全部带回家。提供自动更名的功能。 

47. Offline Commander 2.2 
Offline Commander是一个网页抓取工具,支持FILE、HTTP、HTTPS、FTP协议和Proxy,还可以对抓取回来的网页资料做关键字、网址、标题、内文、文件大小、格式、文件修改日期等检索设置。 

48. NetAttache Pro 2.61 
可以设定所要下载的网页以及要下载的时间,NetAttache pro 会自动的拨接连接到该网站,将你需要的网页抓回来,然后再自动断线.它会依照你所设定的网页「层数」,将网页文件抓取回来.当网路拥塞时,它还会自动重试 10 次,并且以每次同时抓取20个文件的超快速度来下载网页.在下载的文件类型方面,你可以选择要不要下载影像文件、声音文件、Java、ActiveX、Plugins等等,甚至你还可以依照副档名,来设定所要下载的档案文件。 

49. RafaBot 1.5 
Rafabot是一个可以协助你将某站台复制到自己硬盘上的工具程序。它能以快速且多工的方式将一个大网站内的资料复制到硬盘上。你可以对它直接指定起始URL位址甚至是网页搜寻引擎的搜寻结果,也可以指定外部连结让Rafabot程序去为你将整个站台复制下来。就算你所想复制的资料范围超过原本网页的范围而延伸到其他的网页去,Rafabot一样可以将这种状况处理的很好。在网页复制下来后,你可以用多种条件去过滤你所找到的资料,让你从一大堆下载下来的网页资料中快速找到你所想要的资料。网页一但下载到你的硬盘后,你就可以在不连接Internet的情况下去读取这些网页资料了。 

50. HMView 4.04 
不错的离线浏览器.像是网页中的Form, Frame, Image Maps等都可以被完整的抓回来. 

51. NewsLook 2.01 build0320 
新闻离线浏览器,是一个能将互联网上的新闻内容快速下载到本地硬盘上,并可进行离线浏览的软件.它不仅具有下载速度快,操作简便,节省上网时间等特点,还具有个性化的新闻订阅和方便的新闻收藏管理功能,她可根据个人的兴趣爱好需要,订阅自己喜欢的新闻下载类型,并可设立相应的新闻收藏夹,用于管理新闻.而且它还是免费软件,无需注册缴费。 

52. WebCopier Pro 4.3 
是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 

53. WebRecorder 2.0a 
专为下载大文件、网站的一部分或者是整个网站而设计的,它支持断点续传、时间调度等。 

54. Personal Internet Engine 3.0.6 
离线浏览器,可以下载指定网站,并用树型结构进行显示,支持进行查找。 

55. SurfSaver Pro 2.3 
可以专门用来存取一张网页,并且简单易用。它可以完好无损地保存网页,无论是图片、文字、超级链接以及Frame等等的都可储存在名为*.ask的文件中,所以一张网页就是一个文件。与众不同的是,Surfaver支持全文搜索,支持布尔方式和模糊查询,并且你还可以为你所需要保存的网页加上标题、注释和索引,也可把该网页E-mail给你的朋友,当然前提是他也必须用该软件来阅读。 

56. SurfOffline 1.4.1 
操作简单的网页离线浏览工具 - SurfOffline,使用它的精灵引导,输入您所要下载的网站网址,告诉它您所要下载的深度,这个站台就会下载回来在您的计算机中,下次要浏览时,不用联机,开启您所储存的项目,便可以离线浏览,唯一的缺点:不支持 Flash。 

57. WebMirror 1.40 
WebMirror 可以将网站快速下载到本地,以供脱机浏览。它可以提供页面大小和时间的信息。 

58. Site-Thief 1.8.0 
一款可以将整个网站内容都下载下来的工具,为用户提供了下载某个网站的选定部分或全部内容的能力,并将下载的内容储存在本地硬盘,从而可以离线使用. 

59. HTML Converter 2.0 
该软件可以把 IE4、IE5、Netscape 或 Opera 的 Cache 转换为离线的、可以浏览的网页。 

60. HyperMaker HTML Viewer 3000.27 
与HyperMaker HTML配套使用的HTML文本查看工具。 

61. Power Siphon 1.9.1 Build 24 
这是个高效能的网络蜘蛛人,让你下载网站,或任何明确的网页。并储存到硬盘以便浏览使用。简单的提供网页的URL或任何其它开启的页面来下载整个网页,你可以实时观看下载进度,并且从硬盘中存取所有离线页面。此程序还提供了一个压缩已下载网页成为单一执行档案。嵌入的观看器让你看你已下载成功的页面,还包含滚动显示模式。 

62. WebCapture 1.0 
一款 Internet 网络工具。可用于浏览网页、生成镜像网站、下载文件、管理internet链接等等。可将整个网站备份到本地硬盘的工具,也可根据需要将网络链接改为指向备份后的本地文件,这样可以离线时浏览备份后的网站。还可以将要发布的整个网站整合到一个可执行文件,这样就可以在一个整合的浏览器里浏览你的网页。 

63. WebSlinky 1.13 Build 105 
WebSlinky 是一款非常小巧的离线浏览的软件,简单易用,它可以将你访问站点的结构复制到你的计算机上。 

64. Zip Up The Web Lite 2.0.1 
可以把整个网页完整的储存起来,含图及文字部分,又能把抓下来的文件储存成exe档,也就是把抓取回来的网页压缩成一个exe执行档。所以他比其他的类似软件更容易传递,也比较容易使用。 

65. WebVCR 2.16 
如同家中的VCR般的离线浏览程序,它有一个强大的程序向导带您如何录制您所要关看的网页内容,它并可让您同时使用多个网站的录制,完全不受限制。它支援IE2.0及Netscape 2.0以上版本的浏览器。 

66. Website Extractor 9.30 汉化版 
该软件可以下载某个网站中符合您指定条件,如关键字、文件类型、大小等的文件。 Website Extractor 帮你把整个网站搬搬搬…搬回家! 需要离线浏览时,你会怎么做?打开 IE,选「储存完整网页」的功能?若是需要一个有一千页的网站呢?储存一千次吗?Website Extractor 可以让你输入一次网页 URL,就等着所有的网页通通下载到硬盘中吧! 推荐人评价 ========== Website Extractor 让你下载整个网站或是连结。你可以设定下载的条件,免得下载过多的文件: · 包含/不包含特定的关键词 · 指定网域、目录 · 文件大小、型式、名称 · 要不要下载图片等等。 Website Extractor 可以让你同时下载最多 100 个文件,大幅节省上网的时间、费用。因为线路品质不好有文件传不下来吗?Website Extractor 提供续传的功能让你把没抓到的文件补回来。 最棒的是,Website Extractor 是完全免费的,没有讨厌的广告在旁边烦你! ---------------------------------------------------------------- 汉化说明 ======== 该软件原本带有多语言支持,但经测试,发现该功能很不完善,而且遗漏了几个标准资源的字符串,故本人发布的为直接修改资源的版本。无需原版。 汉化版相对于原版所作的更改: · 汉化文件:webextra.exe、DDOMAIN.TXT、default.txt; · 在 README.TXT 中添加汉化自述; · 删除了所有的语言文件; · 去除了主程序菜单中的语言选项; · 添加 XP 主题支持文件 webextra.exe.manifest,一定程度上美化了 XP 系统中的显示。 P.S. 大家都说这个软件是免费版,可实际上经本人研究,该软件乃共享软件泄漏之官方注册版也。不过不管怎样,好?/div>

怎么能快速浏览网站上的图

8. 怎么定制搜索服务,扩展搜索逻辑

随着互联网的迅猛发展、WEB信息的增加,用户要在信息海洋里查找自己所需的信息,就象大海捞针一样,搜索引擎技术恰好解决了这一难题(它可以为用户提供信息检索服务)。搜索引擎是指互联网上专门提供检索服务的一类网站,这些站点的服务器通过网络搜索软件(例如网络搜索机器人)或网络登录等方式,将Intemet上大量网站的页面信息收集到本地,经过加工处理建立信息数据库和索引数据库,从而对用户提出的各种检索作出响应,提供用户所需的信息或相关指针。用户的检索途径主要包括自由词全文检索、关键词检索、分类检索及其他特殊信息的检索(如企业、人名、电话黄页等)。下面以网络搜索机器人为例来说明搜索引擎技术。
1.网络机器人技术
网络机器人(Robot)又被称作Spider、Worm或Random,核心目的是为获取Intemet上的信息。一般定义为“一个在网络上检索文件且自动跟踪该文件的超文本结构并循环检索被参照的所有文件的软件”。机器人利用主页中的超文本链接遍历WWW,通过U趾引用从一个HT2LIL文档爬行到另一个HTML文档。网上机器人收集到的信息可有多种用途,如建立索引、HIML文件合法性的验证、uRL链接点验证与确认、监控与获取更新信息、站点镜像等。
机器人安在网上爬行,因此需要建立一个URL列表来记录访问的轨迹。它使用超文本,指向其他文档的URL是隐藏在文档中,需要从中分析提取URL,机器人一般都用于生成索引数据库。所有WWW的搜索程序都有如下的工作步骤:
(1)机器人从起始URL列表中取出URL并从网上读取其指向的内容;
(2)从每一个文档中提取某些信息(如关键字)并放入索引数据库中;
(3)从文档中提取指向其他文档的URL,并加入到URL列表中;
(4)重复上述3个步骤,直到再没有新的URL出现或超出了某些限制(时间或磁盘空间);
(5)给索引数据库加上检索接口,向网上用户发布或提供给用户检索。
搜索算法一般有深度优先和广度优先两种基本的搜索策略。机器人以URL列表存取的方式决定搜索策略:先进先出,则形成广度优先搜索,当起始列表包含有大量的WWW服务器地址时,广度优先搜索将产生一个很好的初始结果,但很难深入到服务器中去;先进后出,则形成深度优先搜索,这样能产生较好的文档分布,更容易发现文档的结构,即找到最大数目的交叉引用。也可以采用遍历搜索的方法,就是直接将32位的IP地址变化,逐个搜索整个Intemet。
搜索引擎是一个技术含量很高的网络应用系统。它包括网络技术、数据库技术动标引技术、检索技术、自动分类技术,机器学习等人工智能技术。
2.索引技术
索引技术是搜索引擎的核心技术之一。搜索引擎要对所收集到的信息进行整理、分类、索引以产生索引库,而中文搜索引擎的核心是分词技术。分词技术是利用一定的规则和词库,切分出一个句子中的词,为自动索引做好准备。目前的索引多采用Non—clustered方法,该技术和语言文字的学问有很大的关系,具体有如下几点:
(1)存储语法库,和词汇库配合分出句子中的词汇;
(2)存储词汇库,要同时存储词汇的使用频率和常见搭配方式;
(3)词汇宽,应可划分为不同的专业库,以便于处理专业文献;
(4)对无法分词的句子,把每个字当作词来处理。
索引器生成从关键词到URL的关系索引表。索引表一般使用某种形式的倒排表(1nversionUst),即由索引项查找相应的URL。索引表也要记录索引项在文档中出现的位置,以便检索器计算索引项之间的相邻关系或接近关系,并以特定的数据结构存储在硬盘上。
不同的搜索引擎系统可能采用不尽相同的标引方法。例如Webcrawler利用全文检索技术,对网页中每一个单词进行索引;Lycos只对页名、标题以及最重要的100个注释词等选择性词语进行索引;Infoseek则提供概念检索和词组检索,支持and、or、near、not等布尔运算。检索引擎的索引方法大致可分为自动索引、手工索引和用户登录三类。
3. 检索器与结果处理技术
检索器的主要功能是根据用户输入的关键词在索引器形成的倒排表中进行检索,同时完成页面与检索之间的相关度评价,对将要输出的结果进行排序,并实现某种用户相关性反馈机制。
通过搜索引擎获得的检索结果往往成百上千,为了得到有用的信息,常用的方法是按网页的重要性或相关性给网页评级,进行相关性排序。这里的相关度是指搜索关键字在文档中出现的额度。当额度越高时,则认为该文档的相关程度越高。能见度也是常用的衡量标准之一。一个网页的能见度是指该网页入口超级链接的数目。能见度方法是基于这样的观点:一个网页被其他网页引用得越多,则该网页就越有价值。特别地,一个网页被越重要的网页所引用,则该网页的重要程度也就越高。结果处理技术可归纳为:
(1)按频次排定次序 通常,如果一个页面包含了越多的关键词,其搜索目标的相关性应该越好,这是非常合平常理的解决方案。
(2)按页面被访问度排序 在这种方法中,搜索引擎会记录它所搜索到的页面被访问的频率。人们访问较多的页面通常应该包含比较多的信息,或者有其他吸引入的长处。这种解决方案适合一般的搜索用户,而因为大部分的搜索引擎都不是专业性用户,所以这种方案也比较适合一般搜索引擎使用。
(3)二次检索 进一步净化(比flne)结果,按照一定的条件对搜索结果进行优化,可以再选择类别、相关词进行二次搜索等。
由于目前的搜索引擎还不具备智能,除非知道要查找的文档的标题,否则排列第一的结果未必是“最好”的结果。所以有些文档尽管相关程度高,但并不一定是用户最需要的文档。
搜索引擎技术的行业应用:
搜索引擎的行业应用一般指类似于千瓦通信提供的多种搜索引擎行业与产品应用模式,大体上分为如下几种形式:
1、 政府机关行业应用 
n 实时跟踪、采集与业务工作相关的信息来源。 
n 全面满足内部工作人员对互联网信息的全局观测需求。 
n 及时解决政务外网、政务内网的信息源问题,实现动态发布。 
n 快速解决政府主网站对各地级子网站的信息获取需求。 
n 全面整合信息,实现政府内部跨地区、跨部门的信息资源共享与有效沟通。 
n 节约信息采集的人力、物力、时间,提高办公效率。 
2、企业行业应用 
n 实时准确地监控、追踪竞争对手动态,是企业获取竞争情报的利器。 
n 及时获取竞争对手的公开信息以便研究同行业的发展与市场需求。 
n 为企业决策部门和管理层提供便捷、多途径的企业战略决策工具。 
n 大幅度地提高企业获取、利用情报的效率,节省情报信息收集、存储、挖掘的相关费用,是提高企业核心竞争力的关键。 
n 提高企业整体分析研究能力、市场快速反应能力,建立起以知识管理为核心的竞争情报数据仓库,是提高企业核心竞争力的神经中枢。 
3、新闻媒体行业应用 
n 快速准确地自动跟踪、采集数千家网络媒体信息,扩大新闻线索,提高采集速度。 
n 支持每天对数万条新闻进行有效抓取。监控范围的深度、广度可以自行设定。 
n 支持对所需内容智能提取、审核。
n 实现互联网信息内容采集、浏览、编辑、管理、发布的一体化。 
4、 行业网站应用
n 实时跟踪、采集与网站相关的信息来源。
n 及时跟踪行业的信息来源网站,自动,快速更新网站信息。动态更新信息。
n 实现互联网信息内容采集、浏览、编辑、管理、发布的一体化。
n 针对商务网站提出商务管理模式,大大提高行业网站的商务应用需求。
n 针对资讯网站分类目录生成,提出用户生成网站分类结构。并可以实时增加与更新分类结构。不受级数限制。从而大大利高行业的应用性。
n 提供搜索引擎SEO优化专业服务,快速提高行业网站的推广。
n 提供与CCDC呼叫搜索引擎的广告合作。建立行业网站联盟,提高行业网站知名度。
5) 网络信息监察与监控
n 网络舆情系统。如“千瓦通信-网络舆情雷达监测系统”
n 网站信息与内容监察与监控系统,如“千瓦通信-网站信息与内容监测与监察系统(站内神探)”
随着因特网的迅猛发展、WEB信息的增加,用户要在信息海洋里查找信息,就象大海捞 
针一样,搜索引擎技术恰好解决了这一难题(它可以为用户提供信息检索服务)。目前, 
搜索引擎技术正成为计算机工业界和学术界争相研究、开发的对象。 
搜索引擎(Search Engine)是随着WEB信息的迅速增加,从1995年开始逐渐发展起来 
的技术。据发表在《科学》杂志1999年7月的文章《WEB信息的可访问性》估计,全球目前 
的网页超过8亿,有效数据超过9T,并且仍以每4个月翻一番的速度增长。用户要在如此浩 
瀚的信息海洋里寻找信息,必然会"大海捞针"无功而返。搜索引擎正是为了解决这个"迷航 
"问题而出现的技术。搜索引擎以一定的策略在互联网中搜集、发现信息,对信息进行理解 
、提取、组织和处理,并为用户提供检索服务,从而起到信息导航的目的。搜索引擎提供 
的导航服务已经成为互联网上非常重要的网络服务,搜索引擎站点也被美誉为"网络门户" 
。搜索引擎技术因而成为计算机工业界和学术界争相研究、开发的对象。本文旨在对搜索 
引擎的关键技术进行简单的介绍,以起到抛砖引玉的作用。 

分 类 

按照信息搜集方法和服务提供方式的不同,搜索引擎系统可以分为三大类: 
1.目录式搜索引擎:以人工方式或半自动方式搜集信息,由编辑员查看信息之后,人 
工形成信息摘要,并将信息置于事先确定的分类框架中。信息大多面向网站,提供目录浏 
览服务和直接检索服务。该类搜索引擎因为加入了人的智能,所以信息准确、导航质量高 
,缺点是需要人工介入、维护量大、信息量少、信息更新不及时。这类搜索引擎的代表是 
:Yahoo、LookSmart、Open Directory、Go Guide等。 
2.机器人搜索引擎:由一个称为蜘蛛(Spider)的机器人程序以某种策略自动地在互 
联网中搜集和发现信息,由索引器为搜集到的信息建立索引,由检索器根据用户的查询输 
入检索索引库,并将查询结果返回给用户。服务方式是面向网页的全文检索服务。该类搜 
索引擎的优点是信息量大、更新及时、毋需人工干预,缺点是返回信息过多,有很多无关 
信息,用户必须从结果中进行筛选。这类搜索引擎的代表是:AltaVista、Northern Ligh 
t、Excite、Infoseek、Inktomi、FAST、Lycos、Google;国内代表为:"天网"、悠游、O 
penFind等。 
3.元搜索引擎:这类搜索引擎没有自己的数据,而是将用户的查询请求同时向多个搜 
索引擎递交,将返回的结果进行重复排除、重新排序等处理后,作为自己的结果返回给用 
户。服务方式为面向网页的全文检索。这类搜索引擎的优点是返回结果的信息量更大、更 
全,缺点是不能够充分使用所使用搜索引擎的功能,用户需要做更多的筛选。这类搜索引 
擎的代表是WebCrawler、InfoMarket等。 

性 能 指 标 
我们可以将WEB信息的搜索看作一个信息检索问题,即在由WEB网页组成的文档库中检索 
出与用户查询相关的文档。所以我们可以用衡量传统信息检索系统的性能参数-召回率(R 
ecall)和精度(Pricision)衡量一个搜索引擎的性能。 
召回率是检索出的相关文档数和文档库中所有的相关文档数的比率,衡量的是检索系 
统(搜索引擎)的查全率;精度是检索出的相关文档数与检索出的文档总数的比率,衡量 
的是检索系统(搜索引擎)的查准率。对于一个检索系统来讲,召回率和精度不可能两全 
其美:召回率高时,精度低,精度高时,召回率低。所以常常用11种召回率下11种精度的 
平均值(即11点平均精度)来衡量一个检索系统的精度。对于搜索引擎系统来讲,因为没 
有一个搜索引擎系统能够搜集到所有的WEB网页,所以召回率很难计算。目前的搜索引擎系 
统都非常关心精度。 
影响一个搜索引擎系统的性能有很多因素,最主要的是信息检索模型,包括文档和查询 
的表示方法、评价文档和用户查询相关性的匹配策略、查询结果的排序方法和用户进行相 
关度反馈的机制。 

主 要 技 术 
一个搜索引擎由搜索器、索引器、检索器和用户接口等四个部分组成。 
1.搜索器 
搜索器的功能是在互联网中漫游,发现和搜集信息。它常常是一个计算机程序,日夜 
不停地运行。它要尽可能多、尽可能快地搜集各种类型的新信息,同时因为互联网上的信 
息更新很快,所以还要定期更新已经搜集过的旧信息,以避免死连接和无效连接。目前有 
两种搜集信息的策略: 
● 从一个起始URL集合开始,顺着这些URL中的超链(Hyperlink),以宽度优先、深 
度优先或启发式方式循环地在互联网中发现信息。这些起始URL可以是任意的URL,但常常 
是一些非常流行、包含很多链接的站点(如Yahoo!)。 
● 将Web空间按照域名、IP地址或国家域名划分,每个搜索器负责一个子空间的穷尽 
搜索。 搜索器搜集的信息类型多种多样,包括HTML、XML、Newsgroup文章、FTP文件、 
字处理文档、多媒体信息。 搜索器的实现常常用分布式、并行计算技术,以提高信息 
发现和更新的速度。商业搜索引擎的信息发现可以达到每天几百万网页。 
2.索引器 
索引器的功能是理解搜索器所搜索的信息,从中抽取出索引项,用于表示文档以及生 
成文档库的索引表。 
索引项有客观索引项和内容索引项两种:客观项与文档的语意内容无关,如作者名、 
URL、更新时间、编码、长度、链接流行度(Link Popularity)等等;内容索引项是用来 
反映文档内容的,如关键词及其权重、短语、单字等等。内容索引项可以分为单索引项和 
多索引项(或称短语索引项)两种。单索引项对于英文来讲是英语单词,比较容易提取, 
因为单词之间有天然的分隔符(空格);对于中文等连续书写的语言,必须进行词语的切 
分。 在搜索引擎中,一般要给单索引项赋与一个权值,以表示该索引项对文档的区分 
度,同时用来计算查询结果的相关度。使用的方法一般有统计法、信息论法和概率法。短 
语索引项的提取方法有统计法、概率法和语言学法。 
索引表一般使用某种形式的倒排表(Inversion List),即由索引项查找相应的文档 
。索引表也可能要记录索引项在文档中出现的位置,以便检索器计算索引项之间的相邻或 
接近关系(proximity)。 
索引器可以使用集中式索引算法或分布式索引算法。当数据量很大时,必须实现即时 
索引(Instant Indexing),否则不能够跟上信息量急剧增加的速度。索引算法对索引器 
的性能(如大规模峰值查询时的响应速度)有很大的影响。一个搜索引擎的有效性在很大 
程度上取决于索引的质量。 
3.检索器 检索器的功能是根据用户的查询在索引库中快速检出文档,进行文档与 
查询的相关度评价,对将要输出的结果进行排序,并实现某种用户相关性反馈机制。 
检索器常用的信息检索模型有集合理论模型、代数模型、概率模型和混合模型四种。 
4.用户接口 
用户接口的作用是输入用户查询、显示查询结果、提供用户相关性反馈机制。主要的 
目的是方便用户使用搜索引擎,高效率、多方式地从搜索引擎中得到有效、及时的信息。 
用户接口的设计和实现使用人机交互的理论和方法,以充分适应人类的思维习惯。 
用户输入接口可以分为简单接口和复杂接口两种。 
简单接口只提供用户输入查询串的文本框;复杂接口可以让用户对查询进行限制,如 
逻辑运算(与、或、非;+、-)、相近关系(相邻、NEAR)、域名范围(如.edu、.com) 
、出现位置(如标题、内容)、信息时间、长度等等。目前一些公司和机构正在考虑制定 
查询选项的标准。 

未 来 动 向 
搜索引擎已成为一个新的研究、开发领域。因为它要用到信息检索、人工智能、计算 
机网络、分布式处理、数据库、数据挖掘、数字图书馆、自然语言处理等多领域的理论和 
技术,所以具有综合性和挑战性。又由于搜索引擎有大量的用户,有很好的经济价值,所 
以引起了世界各国计算机科学界和信息产业界的高度关注,目前的研究、开发十分活跃, 
并出现了很多值得注意的动向。 
1.十分注意提高信息查询结果的精度,提高检索的有效性 用户在搜索引擎上进行 
信息查询时,并不十分关注返回结果的多少,而是看结果是否和自己的需求吻合。对于一 
个查询,传统的搜索引擎动辄返回几十万、几百万篇文档,用户不得不在结果中筛选。解 
决查询结果过多的现象目前出现了几种方法:一是通过各种方法获得用户没有在查询语句 
中表达出来的真正用途,包括使用智能代理跟踪用户检索行为,分析用户模型;使用相关 
度反馈机制,使用户告诉搜索引擎哪些文档和自己的需求相关(及其相关的程度),哪些 
不相关,通过多次交互逐步求精。二是用正文分类(Text Categorization)技术将结果分 
类,使用可视化技术显示分类结构,用户可以只浏览自己感兴趣的类别。三是进行站点类 
聚或内容类聚,减少信息的总量。 
2.基于智能代理的信息过滤和个性化服务 
信息智能代理是另外一种利用互联网信息的机制。它使用自动获得的领域模型(如We 
b知识、信息处理、与用户兴趣相关的信息资源、领域组织结构)、用户模型(如用户背景 
、兴趣、行为、风格)知识进行信息搜集、索引、过滤(包括兴趣过滤和不良信息过滤) 
,并自动地将用户感兴趣的、对用户有用的信息提交给用户。智能代理具有不断学习、适 
应信息和用户兴趣动态变化的能力,从而提供个性化的服务。智能代理可以在用户端进行 
,也可以在服务器端运行。 
3.采用分布式体系结构提高系统规模和性能 
搜索引擎的实现可以采用集中式体系结构和分布式体系结构,两种方法各有千秋。但 
当系统规模到达一定程度(如网页数达到亿级)时,必然要采用某种分布式方法,以提高 
系统性能。搜索引擎的各个组成部分,除了用户接口之外,都可以进行分布:搜索器可以 
在多台机器上相互合作、相互分工进行信息发现,以提高信息发现和更新速度;索引器可 
以将索引分布在不同的机器上,以减小索引对机器的要求;检索器可以在不同的机器上.