作为一个SEOER,404页面、robots、301的设置是最基础的操作,在前面几篇中也简单提到过这几点,今天把这三点单独罗列出来,主要是因为这三点虽然十分基础,但是十分重要,有必要单独列出来,供新手学习,老手可以直接PASS。

  404页面是为了在用户访问错误的URL或网页文件被删除时提醒用户的页面,页面的内容大家可以随意设置,起到提醒用户的目的,并可以让用户通过该页面可以返回到网站首页。避免用户访问错误地址造成的流量流失。在SEO中404页面是为了提醒搜索引擎蜘蛛此链接已失效,当蜘蛛在多次抓取,返回的状态码都是404后就会删除该链接的快照信息,起到利于优化的目的。

必备:SEO教程(七) 404页面、robots、301的设置

  新手朋友可以直接在网上搜索并下载现成的404页面,用Dreamweaver或者其它编辑软件把里面的信息及网址改为自己网站的就可以了,如果你懂点程序,看到某个网站404不错,直接右键查看网页源代码,把里面的HTML代码复制出来,当然css、图片等必须要一起拿过来,把网页修改为自己的信息,并把图片和CSS等上传到自己的网站上,这样防止你仿制的站图片或者css改变路劲,导致你的站404页面异常。

  Windows服务器或VPS可以通过IIS中的网站错误文档进行指定哪个网页是404页面(IIS→网站属性→自定义错误→指定404文件),如果是购买的虚拟主机。虚拟主机一般是通过htaccess文件进行设置,ErrorDocument404/404.html 其中404.html,是你上传的404页面,ErrorDocument404是一个文件夹,你必须把404.html放到ErrorDocument404这个文件夹下,路劲才正确,才算设置成功,这样设置好后就可以通过站长工具或者其它工具来检测HTTP状态码,如果没有设置的话会返回200代码,设置好后就会显示404错误代码。返回的如果是404错误代码,恭喜你,大功告成。

  这个很简单,我在上节中提过,几个SEOER必用工具,大家可以直接用爱站SEO工具包里面的工具来制作,在制作的时候,可以屏蔽一些垃圾搜索引擎蜘蛛,这样可以避免垃圾搜索引擎蜘蛛经常抓取你的网页,造成服务器的压力,制作好之后可以通过FTP上传工具,把robots.txt上传到网站根目录即可。然后访问你的域名/robots.txt,如果能查到这个文件内容,说明安装成功。

  一个网站通常会绑定www这个二级域名,因为国内的搜索习惯就是www点某某某点com,然而顶级域名,也就是不带www的域名,大多数人也会解析并绑定,不管是带www或者是不带www的域名,百度都把它当成独立的站点,如果没有设置301的话,百度会同时收录带www和不带www的域名,前期可能没有什么问题,到后期,你的网站收录几万几十万的时候,两个带www和不带www的网站都收录了那么多,搜索引擎就会认为这是雷同页面,判定为抄袭,有可能会被降权,所以,网站必须在一开始的时候就做好301重定向,把其中的一个域名重定向到另一个域名,实现域名的统一化,我个人建议把不带www的域名重定向到带www的域名,这样更符合国人的搜索习惯。还有一点,当网站换域名的时候,肯定需要把老的域名301到新的域名,这样可以传递权重,一段时间之后,老的域名的权重就会传递到新站来,所以大家有时候会发现有的网站才个把月,权重非常高,大多数都是用301重定向把老站的权重导入新站。

  好了,关于404页面、robots、301的设置,高兴就先说到这儿,有什么问题,可以随时与我交流。

  文/高兴 2017.1.20

  作者:套路圈子(微信ID:taoluquanzi)

  套路圈子,联合发起人花生、高兴和Tony,是一个专注新媒体、SEO和SEM技术的知识共享平台。学营销,识套路,找套路圈子,让互联网营销没有难办的事儿。