SEO优化入门十大基础知识

很多刚接触SEO优化的朋友,学习了一段时间后都准备开始实战了,但是通过交流发现,关于SEO优化的知识点,都是零零散散的,根本串不起来一条线,今天就简单整理了一些知识点,看看你究竟掌握了多少?

 

一、网页三要素的设置

网页三要素:Title、Keywords、Description,这里最最关键的就是标题的设置,一定要慎之又慎,因为随意修改是会带来降权风险的,也是新手最容易犯错的地方;

 

二、Img的四要素

img的四要素包括Src、Alt、Width、Height,这是网页优化中必须规范的图片使用要素,当然背景图片的话除外;

 

三、关键词密度的适当调整

关键词出现在一个页面的密度,是需要适当布局的,不要刻意去关键词堆积密度,一般有关键词出现在页面即可,堆积是搜索引擎相当反感和打击的一种作弊手法;

 

四、向搜索引擎提交网站Url

让搜索引擎抓取、收录网站页面的最直接方式,就是直接提交,关于“向各大搜索引擎提交地址”前面已经提及;

 

五、404页面的设置

404页面是在网站中出现死链的时候,返回状态码为404时展现的页面,是为了提升用户体验而设置的,并不是一个摆设。

 

六、死链接的检查和处理

死链的产生是由于url路径的改变,导致链接无法访问。这种死链的产生,多是由于其他页面的删除,而页面链接的访问入口还存在,也就是说一个A页面删除了,但是在B页面上还存在A页面的链接,这样一访问肯定就是死链,跳转到404,所以务必检查网站的链接,清除站内的死链接入口;

 

七、页面静态与伪静态的处理

无论是网站程序是PHP的还是ASP,通常为了路径的统一以及蜘蛛抓取方便,甚至是为了提高访问速度,将网站的链接改成了伪静态,或者直接生成静态页面,这个处理最好是在网站上线的时候就统一起来,URL规则定义好;

 

八、Sitemap网站地图的生成

Sitemap网站地图的作用,往往分为三种,一种是为了有利于搜索引擎抓取;一种为了权重的传递,实现平衡层级的网站投票结构;还有一种作用是为了给用户提供直观的入口,如果你的网站分类、层级太多,使用sitemap可以很方便的展现。Sitemap的格式分大概为XMl和html两种,xml是面向蜘蛛的,html是面向用户的。

 

九、Robots的应用

Robots的用处很大,既可以辅助网站收录,也可以拒绝垃圾蜘蛛的抓取。Robots是如何辅助收录的呢?这里指的是定义Robots规则,可以规定蜘蛛可以抓取什么结构的链接,不可以抓取什么结构的链接,例如前面的伪静态处理,由于双重路径,Robots上定义禁止收录动态连接,那么就只能抓取静态路径了;很多垃圾蜘蛛会模仿百度的抓取,毫无节制的在网站上“爬行”,浪费网站的带宽,通过Robots可以屏蔽它的抓取。

 

十、网站跟踪代码

这里的跟踪代码通常指的是网站统计代码,是指百度统计一类的统计代码,因为需要跟踪网站的流量预计访问细节相关的数据,需要这么一个统计工具来完成详细跟踪,当然你使用cnzz、51la等等其他工具也可以。

 

十一、301的处理

本来没打算写第十一点的,后来一想太多新手没有处理301了,还是补充一个。301的处理主要对象是带www的域名的不带www的域名,需要将两个域名作归一处理,避免产生双重路径,也避免分散权重。

 

SEO几点基础知识

总结

网站优化体现在很多细节上,如果你用心分析你的竞争对手网站,你可以从他的不足中找到自己的优势,往往就是这些微小的差距,累积起来就是超越对手的资本,还是那句,优化无小事,关键是细节。入门基础学习好,再努力提升吧。打造一个良好用户体验的网站,首先面对的是搜索引擎,然后才是用户,因为基本网站都是依靠排名带来流量,依靠流量带来排名的后面讨论的问题,所以我们对网站进行优化,一定要从细节入手。

    A+
发布日期:2017年08月07日 12:03:04  所属分类:SEO教程
最后更新时间:2017-08-07 18:57:03
头像

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: