当前位置:主页 > 源码程序 >

新手入门:网站内部代码如何优化

来源:未知 发布时间:2013-02-24 阅读:

都说网站优化内容为王,下面我们就来看看如何做好网站内部代码的优化这只是我的一点浅见:

网站内部代码如何优化

步骤/方法

首页优化的重点是提高对用户的友好度,减小文件大小,提高链接的曝光率。导航、栏目等链接中存在多余的title,建议去掉。

网站内部代码如何优化

例如:spider医生

 

此处的title有些多余,通常标题栏不增加title,另外由于这些都竞争比较激烈,通常需要大量的外部链接才能够获得不错的排名,title能获得的加分作用相对非常少。

页面js即javascript代码优化

 

网站内部代码如何优化

建议:将这些代码放入专门的js文件夹中,在前台即html文件中使用 方式调用。

缺少ALT属性,建议为图片添加ALT属性内容

 

 

网站内部代码如何优化

 

注:由于兼容性问题在firefox里肉眼是看不见alt属性的,因此还可以加个title,即但要注意合理运用,不要造成关键字堆积。

 

添加网站地图入口

 

 

 

网站内部代码如何优化

网站底部在此添加网站地图入口,或其它首页位置(网站地图制作请看文章结尾处)

提交网站地图

网站内部代码如何优化

sitemap可以有以下两种提交方法:

在robots.txt里面增加:Sitemap: URL,此方法适合Google 、Yahoo、MSN 。

 

向http://www.google.com/webmasters/sitemaps/login提交,可以获得更多功能帮助,此方式只适用于Google

 

 

缺少robots.txt文件,建议在根目录下放置一个空的robots.txt文件。

 

几乎所有的搜索引擎Spider都遵循robots.txt给出的爬行规则,协议规定搜索引擎Spider进入某个网站的入口即是该网站的robots.txt,当然,前提是该网站存在此文件。对于没有配置robots.txt的网站,Spider将会被重定向至404 错误页面,相关研究表明,如果网站采用了自定义的404错误页面,那么Spider将会把其视作robots.txt——虽然其并非一个纯粹的文本文件——这将给Spider索引网站带来很大的困扰,影响搜索引擎对网站页面的收录。

制做robots.txt文件。

 

页面排列使用了大量冗余代码,而没有使用div

网站内部代码如何优化

使用纯表格建设网站

使用dw设计器或其他工具制作网站,即不是人工手写代码。

 

内容页,核心内容不突出

 

 

网站内部代码如何优化

可以看到在搜索结果里面,显示的大部分是网站上方的内容,而且都是完全相同的,不能给用户提供更多的有用信息,就无法吸引用户点击。

 

解决方案:

 

使用div+css层,将标题部分放在内容后面,突出显示内容。

代码:

 

 

111111111111111111

 

 

 

 

222222222222222

 

 

显示的效果:

 

将和优化无关的内容放在js,iframe里面。

关键词没有加强即无权重标签

 

 

网站内部代码如何优化

很多地方出现了关键词,但没有使用权重更高的h1等标签加重,有些加重是使用css加黑的。

 

解决方案: 有条件的使用h1,strong,如果h1字体太大,可以使用css加以控制。

未建立内部链接替换机制

 

 

网站内部代码如何优化

对于内部链接,不仅可以使用户在阅读过程中,获得和当前网页相关联的内容,同时对于核心关键词也有提升的作用。

 

解决方案:

a.建立一个关键词表,字段有:关键词、关键词指向的链接。

b.当页面出现这个关键词时,将替换成链接的形式。

c.每个页面的关键词替换按照优先级排序,替换不能超过5个,相同的关键词只替换第一个。

d.

 

其它问题:页面中存在大量asp缓存代码;文件名称没有优化;网页臃肿

网站内部代码如何优化

解决方案:

a.使用标准html标签,不要使用asp.net的控件或者避免使用缓存。

b.内容换行更容易阅读。

c.文件名称可以使用讲师的拼音.html

d.在内容中,讲师应该使用h1标签加强关键词。

e.建议使用b标签,虽然和strong 但b 不仅短小,而且对于搜索引擎来说,没有加强语气的作用。

f.将css放在css文件中,调用css

g.去掉不必要的div