‘seo’ 类别下的博文

张映 发表于 2010-05-21

分类目录: seo

一,先说一下我问题

博客中有个RSS的图片链接,在FIREFOX是好的,图片能正常显示,但是在IE里面呢,图片不能正常显示,显示出来的是个红X,于是我把chrome://browser/skin/feeds/feedIcon.png这个图片地址考出来,放到地址栏中,看能不能找到这个图片,郁闷的是出来了,FIREFOX能显示这个图片,但是IE就是不能,我用的是IE7。我的第一反应是,不会是IE把这个图片给屏蔽了,这也不是什么XXX图片,怎么会被屏蔽呢,肯定不是这个原因

阅读全文>>

张映 发表于 2010-05-04

分类目录: seo

外链接很重要,如果没有外链接的话,我想搜索引擎只收能收录现在网站中的10%就不得了了。个人觉得外链接就像一座座的桥梁,把一个个资源连接起来。这样搜索引擎会沿着一座座桥走下去,如果你是处在交通枢纽中,那你被搜索到的可能性就越大。增加网站外链的几种方法。

1,找根自己网站相似的网站,互换链接。你的网站是做服装的,他的网站是关于游戏的。这样互换没什么意义。互换前要先确认对方的pagerank是多少,最好和自己相当的,或者比自己网站高的来交换。

2,在论坛上面多发发贴子,内容中可以包括一些外链到自己的网站,这些内容必须是有一定价值的,不然等于白做。

3,在页面中提供收藏,收录的工具,让你的网站被收录到各个网站中。

4,不要使用不正当手段添加外链接,一旦被搜索引擎识破,那你的网站将一段时间甚至永远消失在搜索里面,从而毁掉自己的网站。

增加外链接来提高自己网站的访问量,很可能不会起做用或者作用不大,关键还是要看网站内容有没有给用户带来有用的信息,只有用户觉得这个网站不错,内容真实,并且很人性化,他还会来访问。这才是真正的解决seo的方法。

张映 发表于 2010-05-04

分类目录: seo

网站如果放到网上一段时间后,我想应当都会被搜索引擎收录,如果没有收录怎么办呢,这就要自己去去添加了,网站一上线你也可以自己把网站url添加到搜索引擎中。下面是我从网上收集了一些常用的url收录网站

Google搜索引擎提交入口:
http://blogsearch.google.com/ping?hl=zh-CN
http://www.google.com/addurl/?hl=zh-CN&continue=/addurl

百度搜索提交入口:
http://utility.baidu.com/blogsearch/submit.php
http://www.baidu.com/search/url_submit.html

阅读全文>>

张映 发表于 2010-05-04

分类目录: seo

一,搜索引擎工作原理

搜索引擎通过个称之为Spider的序从一个网页或多个网页出发,逐步遍历网上的文件。Spider首先解析网页的HTML代码,查找该页面内的超链接,然后根据链接搜索网页,并建立关键字与其所在位置的对照表。搜索引擎为搜索到的网页建立索引并存入数据库中。当用户输入要搜索的关键字时,搜索引擎根据输入的关键字从数据库中查找匹配的网页,并将结果返回给用户。seo优化就是让搜索引擎更好搜索到你想让它搜到的内容.

二,合理规化自己的网站url

搜索引擎是通过url来从网上抓数据的。所以简单,明确,能表达鲜明主题的url就很重要了。个人认为搜索引擎之所以对动态网页检索有难度是因为它对URL中包括了一些一特殊字符?,&,#,=,%等等,还有一点就是您的链接中最好不要带有中文字符,

阅读全文>>

张映 发表于 2010-03-29

分类目录: seo

什么是robots.txt?

robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。robots.txt 是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。

当一个搜索机器人robots(有的叫搜索蜘蛛或者爬虫)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索引擎爬虫就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索引擎爬虫就沿着链接抓取。

robots.txt 文件限制抓取网络的搜索引擎爬虫对您的网站的访问。这些搜索引擎爬虫是自动的,它们在访问任意网站的网页之前,都会查看是否存在阻止它们访问特定网页的 robots.txt 文件。(虽然某些搜索引擎爬虫可能会以不同的方式解释 robots.txt 文件中的指令,但所有正规的搜索引擎爬虫都会遵循这些指令。然而,robots.txt 不是强制执行

阅读全文>>

张映 发表于 2010-02-08

分类目录: apache/nginx, seo

一,为什么要url重写

对于搜索引擎而言,在主观上对静态页面和动态页面并没有特殊的好恶,只是很多动态页面的参数机制不利于搜索引擎收录,而静态页面更容易收录而已。此外,页 面静态化在一定程度上也提高了页面访问速度和系统性能及稳定性—-这使得在搜索引擎优化上面,为使得效果更加明显,问题简单快速解决,大家对站点的静态化非常的看重。

URL应当是用户友好的;
URL应当是可读的;
URL应当是可预测的;
URL应当是统一的;
URL面向搜索引擎是友好的;

阅读全文>>