精华区 [关闭][返回]

当前位置:网易精华区>>讨论区精华>>网易站务>>○ 网上求助>>◆ 网络相关 ◆>>● 网络基础 ●>>如何使用E-mail访问Internet>>进行WWW查询(转载)

主题:进行WWW查询(转载)
发信人: vc()
整理人: saintrobust(2000-12-05 08:49:37), 站内信件
【 以下文字转载自 vc 的信箱 】
【 原文由
 [email protected] 所发表 】
                           使用 E-MAIL 进行 WWW 查询
                           -----------------------

在 Web 上有太多的信息, 但是如何能找到想要的东西呢?正如使用 Archie 及 Veronica 

以帮您找到想要的 FTP 与 gopher 地址类似,在 Web 上已经开发出许多检索工具 
(search 
engine) 供我们使用了。
但可惜的是,目前您只能通过直接的Internet连结才能使用它们。

当笔者花了些功夫研究后, 发现使用 e-mail 仍可使用一些 WWW 的检索机制。在此提供
您一些查询的示例, 这些示例则是通过著名的 Lycos, WebCrawler 以及CUI W3 Catalog 

索服务器才完成的查询。  当然其中的任何一行命令也可以传送到Agora 服务器 (见上
述)。  对以下的实例而言, 如果您不是要找 spam 或 frogs 这些有的没的, 请自行输入
想要检索信息的关键词。

对 Lycos 而言, 在您的关键词后加上 "." 可以强迫找寻完全符合的字符串, 否则它会以
系统内定值将关键词视作子字符串作检索。  关键词之间则是以 "+" 做分割。

   http://lycos11.lycos.cs.cmu.edu/cgi-bin/flpursuit?spam
   http://lycos11.lycos.cs.cmu.edu/cgi-bin/flpursuit?spam。
   http://lycos11.lycos.cs.cmu.edu/cgi-bin/flpursuit?frog.+dissection。

对 WebCrawler 的检索则需要在关键词之间输入 "+" 符号。  检索的结果会返回完全符合
该关键词的信息, 关键词字尾的 "." 是不需要的。

   http://webcrawler.com/cgi-bin/WebQuery?spam
   http://webcrawler.com/cgi-bin/WebQuery?frog+dissection

而对 CUI W3 Catalog 的检索您必须在关键词间以 "%20" 分开。 检索的结果会回传完全符
合该关键词的信息, 关键词字尾的 "." 也不需要。

   http://cuiwww.unige.ch/cgi-bin/w3catalog?spam
   http://cuiwww.unige.ch/cgi-bin/w3catalog?frog%20dissection


[关闭][返回]