wordpress博客快速提交收录ping服务

2013 年 06 月 07 日 上午 9:18  |  分类:SEO

关于博客收录,其实只要内容是原创一般都没有大问题,交换几个同类博客,就很快能获得权重。但是博客是原创生产基地,为了防止子在搜索引擎爬去前被别人采集,导致不利于SEO问题,我们推荐使用ping服务。

什么是ping服务?

ping就是一种基于XML_RPC的通知更新公告服务,它可以把你博客更新的内容告诉搜索引擎,以便搜索引擎能在最短时间内爬取你的文章。

主流博客程序wordpress为例,你可以在仪表盘-设置-撰写,找到更新服务设置,只要填入响应的url即可。

国内主流的博客自动ping URL

http://blogsearch.google.com/ping/RPC2

http://ping.baidu.com/ping/RPC2

http://blog.youdao.com/ping/RPC2

http://api.my.yahoo.com/RPC2

http://blog.iask.com/RPC2

目前我们主要针对的国内中文的引擎,所以如果你的站点是英文的话,请自行谷歌出国外主流的自动ping URL。

只要你的网站没有被惩罚,一般搜索引擎会在短时间内做出反应,那么你就不用担心的你原创文章被别人采集了。

10 Best Link Building Practices

2012 年 06 月 06 日 上午 9:14  |  分类:SEO

外链建设是一件非常困难的事情有时甚至可以耗费你很多的时间和精力,因为他需要你具有非常敏锐的洞察力以及专业扎实SEO知识作为基础去制定一个计划并且有效的实施,今天特此列举出10条最有效的外链建设方面的实践经验,来帮助你更好的优化的外链:

1. 经常更换你的锚文本

搜索引擎始终赋予指向你网站的锚文本很高的权重,因为锚文本很大程度上的反映了你文章的主要内容,通过更换锚文本你可以让你的网站保持很高的针对性以及稳定的较高的排名。(注:如果优化一个词,所有的锚文本都是用这个词,很容易被搜索引擎认为是在操纵排名,我想这个大家都应该很清楚,所以,发锚文本时一定要切记多换换锚文本,大体的这个锚文本可以这样分配,50%的精确锚文本,30%的拓展锚文本,10%的随机锚文本,10%的纯url锚文本。假设现在需要做“英文seo”这个词,精确锚文本就是“英文seo”,拓展锚文本可以用“英文SEO优化”,随机锚文本可以用“点击这里”,纯url就是直接的“www.youdomain.com” !)

2. 深层次的链接

将你的整个网站所有页面纳入到外链建设策略中,而不是简单的一两个页面。(译者注:

这句话翻译的不知道你们懂不懂,根据我我个人的理解是说做外链要自然点,不要总是给首页做外链,可以适当的给深层次一点的页面做外链,也就是多给内页做做外链,如果完全都是给首页做外链,权重分配的就不是很好,谷歌也不是傻子,他能判定出来是在人工作弊,最有效的方式就是给网站大部分的页面都做点外链,这样外链就会显得自然一点,随机一点)继续翻译:然而,有个问题就是,不可能每个页面分不到的外链都均衡,不过这个不影响整体。
全文阅读 »

网站被K的九大原因

2012 年 05 月 24 日 下午 2:25  |  分类:SEO

像我们做SEO工作的,在网站稳定排名以后,最担心的就是没有预兆的被搜索引擎k了,收录的网页一夜之间没了,下面总结出网站被K的九个原因,希望同广大seoer分享一下网站被K的各种原因,不妥之处请指正,谢谢。

一、网站服务器不稳定

 网站服务器经常断电,被攻击,中木马等等,导致搜索引擎正常抓取的时候,不能准确获取网页的信息。

二、robots设置不当

  基本上搜索引擎都遵守robots协议,如果在robots写法设置不当,导致搜索引擎抓取不当,请检查robots.txt文件是否配置正确。

三、SEO优化过度

关键词堆砌过多,title频繁修改,网站标题和内容完全不符,网站过度优化。

四、网站被黑

 网站被黑客攻击,被挂木马、病毒等,灰常影响用户体验,有可能被搜索引擎人工网站调整。

 五、友情链接网站作弊

 网站的友情链接中,如果有一个网站被搜索引擎认为作弊,受到了惩罚,你的网站也会被惩罚,网站友情链接过杂,也有可能被搜索引擎K掉的危险。

 六、群发推广方式

 如果你的网站采用群发信息的方向进行推广,这样有时会造成反现象,网站乱发信息,被搜索引擎判为作弊,搜索引擎讲究合作的运营推广,如果是大量采用人工,群发软件发送信息不当等,网站也会被K掉哦。

 七、同一IP下的网站作弊

同一IP下的网站如果被搜索引擎认定作弊,整个IP地址都会被封掉,如果您的网站也在这个IP上,同样也会被K掉的,建议大家使用独立IP空间。

 八、域名被搜索引擎加入黑名单

 1、如果网站的域名早期因为作弊,被搜索引擎记录在案,同样也会被K掉的,这时必须更换新域名,建议在购买域名之前先查一下域名是否作弊过。

 2、如果网站绑定域名过多,搜索引擎会认为网站内容不专一,同样也面临被k的危险。

 九、网站内容违反法律法规

如果网站的内容中含有违法信息,网站同样会被搜索引擎认定不健康而K掉你的站,国家也会查处你的站点。

建设好站点之后,我们要做好网站优化,可以使用上面的九点检测你的网站,如果你的网站包含了上述一半以上的情况,那么建议您尽早重新建站。

robots写法大全

2011 年 11 月 22 日 下午 1:18  |  分类:SEO

有些时候我们会遇到这样的困难:我们原本不想被搜索引擎收录的网站后台地址却被搜索引擎“无情”的收录,这样只要在Google里输入一个“后台、管理site: www.zen-cart-seo.com”,自己的后台地址就会显露无疑,因此网站安全性也无从谈起。遇到这样的情况时,我们如何阻止搜索引擎收录我们不想被收录的文件呢?
一般在这个时候,我们常用的办法有两个,一个是编辑robots.txt文件,另外一个是在不想被收录的页面头部放置META NAME=”ROBOTS”标签。
所谓的robots.txt文件,是每一个搜索引擎到你的网站之后要寻找和访问的第一个文件,robots.txt是你对搜索引擎制定的一个如何索引你的网站的规则。通过这个文件,搜索引擎就可以知道在你的网站中,哪些文件是可以被索引的,哪些文件是被拒绝索引的。
在很多网站中,站长们都忽略了使用robots.txt文件。因为很多站长都认为,自己的网站没有什么秘密可言,而且自己也不太会使用robots.txt的语法,因此一旦写错了会带来更多的麻烦,还不如干脆不用。
其实这样的做法是不对的。在前面的文章中我们知道,如果一个网站有大量文件找不到的时候(404),搜索引擎就会降低网站的权重。而robots.txt作为蜘蛛访问网站的第一个文件,一旦搜索引擎要是找不到这个文件,也会在他的索引服务器上记录下一条404信息。 全文阅读 »

谷歌抓取includes文件

2010 年 12 月 29 日 上午 8:34  |  分类:SEO,SEOer学习笔记

今天谷歌抓取了一个网站的includes文件,不知道为什么,也不知道有什么用处,反正那个网站的负面影响就是很多页面没有抓取到,吓我一跳。看来又得robots文件把他阻止掉。

最近拿那些网站的抓取错误很烦,不知道怎么减少谷歌的抓取错误,网站地图也因为网站页面太多,没有找到合适的网站地图生成工具。

还有就是最近的网站降权比较厉害,关键词排名掉掉掉。

一句话:最近比较烦。

作者:chang-sha-seo

文章来源:长沙网站建设 | zen cart二次开发

SEO之伪原创

2010 年 12 月 24 日 上午 11:46  |  分类:SEOer学习笔记

第一、修改文章标题
重新拟定一个文章标题
第二、文章头原创
用自己的话做一个内容总结
第三、文章伪原创
删除文章某一段,或者在文章中间增加一段
第四、文章末原创
在文章末加上一段话

seo感悟-1209

2010 年 12 月 09 日 下午 10:12  |  分类:SEO

今天看了一下午的网站,比较来比较去,再次体会内容为王这句话的含义,为什么我们的站推不上去,也许这跟做人一个样吧,要充实,有内容,当网站空洞,外界投的票再多也没有用,终究会灭亡。

Google搜索引擎优化技术的12个要点

2010 年 12 月 09 日 上午 8:55  |  分类:SEO

Google搜索引擎优化技术的12个要点
一、选择服务器放在哪个区域

对于Google而言,不同的区域,搜索结果的就不同。一些英文关键词,你在中国用Google搜索,发现你网站的排名非产靠前,但是如果你在国外用Google,你可能翻十页都找不到你的网站。

我们做Google排名的排名效果不是让我们自己看的,而是让我们的潜在客户看的。所以服务器的区域选择应选择潜在客户群体所在的区域。

二、检查服务器的IP是否被Google处罚过
1、检查一下这台服务器上放了多少网站呢?如何查呢?这里我们给你大家一个工具,可以很轻松的查出来有多少域名共同指向一个IP:(http://whois.webhosting.info/ip
例如:如果你要查219.235.226.77 这个IP你只要在IT地址栏输入 全文阅读 »

SEOer在竞争激烈的关键词面前,如何超越对手

2010 年 12 月 07 日 上午 10:51  |  分类:SEO

现在越来越多的人接触到网站SEO,因此关键词排名竞争也越来越激烈,尤其在一些高热门的关键词。有很多新手(当然我自己也是新手)在对自己的网站优化完成后,排名就一直停在那里前进不了。那么要如何越过这个瓶颈呢?这里提供及点意见供参考:

首先:建立二级博客

在你的主域名下建立二级博客,陆续发布一些与主网站内容有关的文章,并且要做好锚文本指向主站的页面,这一些我在前面一篇文章关于外贸网站SEO中就提到过。

其次:建立二级目录的论坛或者SNS

如果你做的目标关键词是行业里面的顶级关键词,例如:茶叶 ,通过二级目录的论坛或者SNS可以充分挖掘用户的力量。让网站用户为你创建文章和很多的长尾词,提供网站人气。

最后:获取高质量的外链

充分利用好你自己已经有的资源,寻找高质量的链接。

以上三个方面,我还是最看重第二点,充分挖掘用户的力量。这样才能激活你网站的人气,当然高质量的外链也是必不可少的。针对英文SEO,建一个二级博客也是非常合适的。

蓝帽SEO思维

2010 年 11 月 20 日 上午 10:45  |  分类:SEO

蓝帽SEO思维–永远不可能被淘汰的思维模式

把简单的思维完美化,并把这种思维不断拓展和重复利用。忍受孤独,忍受乏味,长期坚持!这就是所有seor都应该奉行且永远都不会被淘汰的思维模式。

无论搜索引擎发生了什么变化,不管搜索引擎的算法产生了什么变动。SEO需要涉及的思想都很简单:标准化和人性化。

标准化

代码标准化  不要有无用的代码,尤其是错误的代码,不用尝试标新立异的写法和结构。简单而又符合W3C标准即可。

结构标准化  ico、404页面、robots、sitemap、301确定唯一主页等这些都是一个完善的网站必不可缺的部分。

符号标准化  一个页面有且只有一个H1标签,一个网站最好标点统一。如果是英文网站全部使用半角符号,如果是中文站点统一使用全角字符等。

人性化

构架人性化  完善的面包屑导航,从左到右从上到下的布局模式等等。

代码人性化  一个图片要带有alt标识以方便盲人的阅读,或者图片失效后方便别人明白这里曾经是什么图片。一个链接要带有title标识告诉别人这个链接指向的页面是什么内容等。

内容人性化  相关的内容相互交叉起来,事情的进展互连起来。想要告诉用户的内容尽量突出一点等等。

Pages: 1 2 Next