张映 发表于 2010-05-04

分类目录: seo

网站如果放到网上一段时间后,我想应当都会被搜索引擎收录,如果没有收录怎么办呢,这就要自己去去添加了,网站一上线你也可以自己把网站url添加到搜索引擎中。下面是我从网上收集了一些常用的url收录网站

Google搜索引擎提交入口:
http://blogsearch.google.com/ping?hl=zh-CN
http://www.google.com/addurl/?hl=zh-CN&continue=/addurl

百度搜索提交入口:
http://utility.baidu.com/blogsearch/submit.php
http://www.baidu.com/search/url_submit.html

阅读全文>>

张映 发表于 2010-05-04

分类目录: seo

一,搜索引擎工作原理

搜索引擎通过个称之为Spider的序从一个网页或多个网页出发,逐步遍历网上的文件。Spider首先解析网页的HTML代码,查找该页面内的超链接,然后根据链接搜索网页,并建立关键字与其所在位置的对照表。搜索引擎为搜索到的网页建立索引并存入数据库中。当用户输入要搜索的关键字时,搜索引擎根据输入的关键字从数据库中查找匹配的网页,并将结果返回给用户。seo优化就是让搜索引擎更好搜索到你想让它搜到的内容.

二,合理规化自己的网站url

搜索引擎是通过url来从网上抓数据的。所以简单,明确,能表达鲜明主题的url就很重要了。个人认为搜索引擎之所以对动态网页检索有难度是因为它对URL中包括了一些一特殊字符?,&,#,=,%等等,还有一点就是您的链接中最好不要带有中文字符,

阅读全文>>

张映 发表于 2010-03-29

分类目录: seo

什么是robots.txt?

robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。robots.txt 是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。

当一个搜索机器人robots(有的叫搜索蜘蛛或者爬虫)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索引擎爬虫就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索引擎爬虫就沿着链接抓取。

robots.txt 文件限制抓取网络的搜索引擎爬虫对您的网站的访问。这些搜索引擎爬虫是自动的,它们在访问任意网站的网页之前,都会查看是否存在阻止它们访问特定网页的 robots.txt 文件。(虽然某些搜索引擎爬虫可能会以不同的方式解释 robots.txt 文件中的指令,但所有正规的搜索引擎爬虫都会遵循这些指令。然而,robots.txt 不是强制执行

阅读全文>>

张映 发表于 2010-02-08

分类目录: apache/nginx, seo

一,为什么要url重写

对于搜索引擎而言,在主观上对静态页面和动态页面并没有特殊的好恶,只是很多动态页面的参数机制不利于搜索引擎收录,而静态页面更容易收录而已。此外,页 面静态化在一定程度上也提高了页面访问速度和系统性能及稳定性—-这使得在搜索引擎优化上面,为使得效果更加明显,问题简单快速解决,大家对站点的静态化非常的看重。

URL应当是用户友好的;
URL应当是可读的;
URL应当是可预测的;
URL应当是统一的;
URL面向搜索引擎是友好的;

阅读全文>>