日志分类:SEO

wordpress博客快速提交收录ping服务

2013 年 06 月 07 日 上午 9:18  |  分类:SEO

关于博客收录,其实只要内容是原创一般都没有大问题,交换几个同类博客,就很快能获得权重。但是博客是原创生产基地,为了防止子在搜索引擎爬去前被别人采集,导致不利于SEO问题,我们推荐使用ping服务。

什么是ping服务?

ping就是一种基于XML_RPC的通知更新公告服务,它可以把你博客更新的内容告诉搜索引擎,以便搜索引擎能在最短时间内爬取你的文章。

主流博客程序wordpress为例,你可以在仪表盘-设置-撰写,找到更新服务设置,只要填入响应的url即可。

国内主流的博客自动ping URL

http://blogsearch.google.com/ping/RPC2

http://ping.baidu.com/ping/RPC2

http://blog.youdao.com/ping/RPC2

http://api.my.yahoo.com/RPC2

http://blog.iask.com/RPC2

目前我们主要针对的国内中文的引擎,所以如果你的站点是英文的话,请自行谷歌出国外主流的自动ping URL。

只要你的网站没有被惩罚,一般搜索引擎会在短时间内做出反应,那么你就不用担心的你原创文章被别人采集了。

10 Best Link Building Practices

2012 年 06 月 06 日 上午 9:14  |  分类:SEO

外链建设是一件非常困难的事情有时甚至可以耗费你很多的时间和精力,因为他需要你具有非常敏锐的洞察力以及专业扎实SEO知识作为基础去制定一个计划并且有效的实施,今天特此列举出10条最有效的外链建设方面的实践经验,来帮助你更好的优化的外链:

1. 经常更换你的锚文本

搜索引擎始终赋予指向你网站的锚文本很高的权重,因为锚文本很大程度上的反映了你文章的主要内容,通过更换锚文本你可以让你的网站保持很高的针对性以及稳定的较高的排名。(注:如果优化一个词,所有的锚文本都是用这个词,很容易被搜索引擎认为是在操纵排名,我想这个大家都应该很清楚,所以,发锚文本时一定要切记多换换锚文本,大体的这个锚文本可以这样分配,50%的精确锚文本,30%的拓展锚文本,10%的随机锚文本,10%的纯url锚文本。假设现在需要做“英文seo”这个词,精确锚文本就是“英文seo”,拓展锚文本可以用“英文SEO优化”,随机锚文本可以用“点击这里”,纯url就是直接的“www.youdomain.com” !)

2. 深层次的链接

将你的整个网站所有页面纳入到外链建设策略中,而不是简单的一两个页面。(译者注:

这句话翻译的不知道你们懂不懂,根据我我个人的理解是说做外链要自然点,不要总是给首页做外链,可以适当的给深层次一点的页面做外链,也就是多给内页做做外链,如果完全都是给首页做外链,权重分配的就不是很好,谷歌也不是傻子,他能判定出来是在人工作弊,最有效的方式就是给网站大部分的页面都做点外链,这样外链就会显得自然一点,随机一点)继续翻译:然而,有个问题就是,不可能每个页面分不到的外链都均衡,不过这个不影响整体。
全文阅读 »

网站被K的九大原因

2012 年 05 月 24 日 下午 2:25  |  分类:SEO

像我们做SEO工作的,在网站稳定排名以后,最担心的就是没有预兆的被搜索引擎k了,收录的网页一夜之间没了,下面总结出网站被K的九个原因,希望同广大seoer分享一下网站被K的各种原因,不妥之处请指正,谢谢。

一、网站服务器不稳定

 网站服务器经常断电,被攻击,中木马等等,导致搜索引擎正常抓取的时候,不能准确获取网页的信息。

二、robots设置不当

  基本上搜索引擎都遵守robots协议,如果在robots写法设置不当,导致搜索引擎抓取不当,请检查robots.txt文件是否配置正确。

三、SEO优化过度

关键词堆砌过多,title频繁修改,网站标题和内容完全不符,网站过度优化。

四、网站被黑

 网站被黑客攻击,被挂木马、病毒等,灰常影响用户体验,有可能被搜索引擎人工网站调整。

 五、友情链接网站作弊

 网站的友情链接中,如果有一个网站被搜索引擎认为作弊,受到了惩罚,你的网站也会被惩罚,网站友情链接过杂,也有可能被搜索引擎K掉的危险。

 六、群发推广方式

 如果你的网站采用群发信息的方向进行推广,这样有时会造成反现象,网站乱发信息,被搜索引擎判为作弊,搜索引擎讲究合作的运营推广,如果是大量采用人工,群发软件发送信息不当等,网站也会被K掉哦。

 七、同一IP下的网站作弊

同一IP下的网站如果被搜索引擎认定作弊,整个IP地址都会被封掉,如果您的网站也在这个IP上,同样也会被K掉的,建议大家使用独立IP空间。

 八、域名被搜索引擎加入黑名单

 1、如果网站的域名早期因为作弊,被搜索引擎记录在案,同样也会被K掉的,这时必须更换新域名,建议在购买域名之前先查一下域名是否作弊过。

 2、如果网站绑定域名过多,搜索引擎会认为网站内容不专一,同样也面临被k的危险。

 九、网站内容违反法律法规

如果网站的内容中含有违法信息,网站同样会被搜索引擎认定不健康而K掉你的站,国家也会查处你的站点。

建设好站点之后,我们要做好网站优化,可以使用上面的九点检测你的网站,如果你的网站包含了上述一半以上的情况,那么建议您尽早重新建站。

robots写法大全

2011 年 11 月 22 日 下午 1:18  |  分类:SEO

有些时候我们会遇到这样的困难:我们原本不想被搜索引擎收录的网站后台地址却被搜索引擎“无情”的收录,这样只要在Google里输入一个“后台、管理site: www.zen-cart-seo.com”,自己的后台地址就会显露无疑,因此网站安全性也无从谈起。遇到这样的情况时,我们如何阻止搜索引擎收录我们不想被收录的文件呢?
一般在这个时候,我们常用的办法有两个,一个是编辑robots.txt文件,另外一个是在不想被收录的页面头部放置META NAME=”ROBOTS”标签。
所谓的robots.txt文件,是每一个搜索引擎到你的网站之后要寻找和访问的第一个文件,robots.txt是你对搜索引擎制定的一个如何索引你的网站的规则。通过这个文件,搜索引擎就可以知道在你的网站中,哪些文件是可以被索引的,哪些文件是被拒绝索引的。
在很多网站中,站长们都忽略了使用robots.txt文件。因为很多站长都认为,自己的网站没有什么秘密可言,而且自己也不太会使用robots.txt的语法,因此一旦写错了会带来更多的麻烦,还不如干脆不用。
其实这样的做法是不对的。在前面的文章中我们知道,如果一个网站有大量文件找不到的时候(404),搜索引擎就会降低网站的权重。而robots.txt作为蜘蛛访问网站的第一个文件,一旦搜索引擎要是找不到这个文件,也会在他的索引服务器上记录下一条404信息。 全文阅读 »

.htaccess的RedirectMatch命令

2011 年 02 月 10 日 下午 5:12  |  分类:SEO,zen-cart网站建设

因为Redirect指令进匹配完整的URL,因此,该命令不能用来匹配文件名的正则表达式。如果希望匹配更多的条件,请使用RedirectMatch命令。
后文将进行详细的介绍:

RedirectMatch 指令:
RedirectMatch指令是基于正则表达式匹配对当前的URL发送一个外部重定向命令。该命令与Redirect等效,但是URL能使用正则匹配。它使用了标准的正则表达式而不是简单的文件匹配。

其语法是:

RedirectMatch [status] regex URL

如果egex与URL相匹配,则服务器会把所匹配的括弧中的字符串替换到该指令所指定的目标字符串中,并将它视之为一个文件名。例如,重定向所有GIF文件到另一个服务器上同名的JPEG文件,可以:

RedirectMatch (.*)\.gif$ http://www.anotherserver.com$1.jpg

因此,该命令更加强大。其实际作用在于,比如想将本服务器上的所有图片、rar等资源换到专用的FTP服务器上去,这个功能就起大作用了。

与上述的301重定向命令类似的还有RedirectPermanent指令,与之对应的302重定向还有RedirectTemp指令。他们在用法上都是大同小异,只是这两个指令将之前的那两个指令具体化了一下,并且不带有状态码参数。

机会来临的时候你准备好了吗

2011 年 01 月 11 日 上午 10:13  |  分类:SEO,SEOer学习笔记,经验分享

这几天有一个深刻的感受,就是当别人要我推荐一个同事给他单独运营一个网站,然后带一个小团队,两个人合作创造价值,我想了许久,最后给的回答是:暂时还没有。我问一个离职的同事,你能不能,有没有胆量去当一个主管,带领一个团队去运用seo创造价值的时候,她很快回答的是:不能,现在不可以,我问她:要多久,她说3-4个月。3-4个月?3-4个月,机会还在等你吗?之前的3-4个月怎么就没准备好呢?我没有这么直说,但是我可以用这句话来问反问自己:***,当有机会来临的时候你,你准备好了吗?你也是回答要3-4个月?之前的3-4个月怎么没有准备好呢?我觉得可以给自己做一个提醒,也建议你给自己做一个提醒:时常提醒自己,机会来领的时候,你准备好了吗?之前的3-4个月你怎么没有准备好呢?完善自己的人生要给自己找借口吗?

谷歌抓取includes文件

2010 年 12 月 29 日 上午 8:34  |  分类:SEO,SEOer学习笔记

今天谷歌抓取了一个网站的includes文件,不知道为什么,也不知道有什么用处,反正那个网站的负面影响就是很多页面没有抓取到,吓我一跳。看来又得robots文件把他阻止掉。

最近拿那些网站的抓取错误很烦,不知道怎么减少谷歌的抓取错误,网站地图也因为网站页面太多,没有找到合适的网站地图生成工具。

还有就是最近的网站降权比较厉害,关键词排名掉掉掉。

一句话:最近比较烦。

作者:chang-sha-seo

文章来源:长沙网站建设 | zen cart二次开发

Htaccess文件用法大全

2010 年 12 月 10 日 下午 5:29  |  分类:SEO,Zen-Cart二次开发

1.时区设置

有些时候,当你在PHP里使用date或mktime函数时,由于时区的不同,它会显示出一些很奇怪的信息。下面是解决这个问题的方法之一。就是设置你的服务器的时区。你可以在这里找到所有支持的时区的清单。

SetEnv TZ Australia/Melbourne

2. 搜索引擎友好的301永久转向方法

为什么这是搜索引擎友好的呢?因为现在很多现代的搜索引擎都有能根据检查301永久转向来更新它现有的记录的功能。

Redirect 301 http://www.zen-cart-seo.com/home http://www.zen-cart-seo.com/
全文阅读 »

seo感悟-1209

2010 年 12 月 09 日 下午 10:12  |  分类:SEO

今天看了一下午的网站,比较来比较去,再次体会内容为王这句话的含义,为什么我们的站推不上去,也许这跟做人一个样吧,要充实,有内容,当网站空洞,外界投的票再多也没有用,终究会灭亡。

Google搜索引擎优化技术的12个要点

2010 年 12 月 09 日 上午 8:55  |  分类:SEO

Google搜索引擎优化技术的12个要点
一、选择服务器放在哪个区域

对于Google而言,不同的区域,搜索结果的就不同。一些英文关键词,你在中国用Google搜索,发现你网站的排名非产靠前,但是如果你在国外用Google,你可能翻十页都找不到你的网站。

我们做Google排名的排名效果不是让我们自己看的,而是让我们的潜在客户看的。所以服务器的区域选择应选择潜在客户群体所在的区域。

二、检查服务器的IP是否被Google处罚过
1、检查一下这台服务器上放了多少网站呢?如何查呢?这里我们给你大家一个工具,可以很轻松的查出来有多少域名共同指向一个IP:(http://whois.webhosting.info/ip
例如:如果你要查219.235.226.77 这个IP你只要在IT地址栏输入 全文阅读 »

Pages: 1 2 3 Next