外链平台搜集

作者:鼎极网络发布日期:2019-11-12浏览次数:4

  做SEO网站推广,都知道“内容为王,外链为皇”。百度去年7月发布公告称,新的超链算法仅信任小范围内的优质重要外链,垃圾外链无法提升权重,而且容易被K站。那外链还能做吗,当然要做,酒香也怕巷子深,对于每个站长来说,除了做好网站内容和服务外,还要让更多的人了解。根据2016年的网络环境,整理了这份外链指南,希望对大家的SEO之路有些帮助。

  1、媒体平台投稿

  写好的软文,加上链接和关键词,让那些热门的媒体平台收录后,就会被大量转载。媒体平台是很多小网站的信息源,具有非常广的传播空间,有利于增加外链,即使链接在传播时被抹去,软文中的关键词还是会被收录,并提升搜索排名的权重。这些媒体平台往往属于百度新闻源,新闻源对于网站权重提升会有很大帮助。

  常见媒体平台包括:

  搜狐媒体平台 http://mp.sohu.com/

  今日头条 http://toutiao.com/cooperation/

  百度百家 http://baijia.baidu.com/

  网易媒体开放平台 http://dy.163.com/wemedia/

  一般来说媒体平台的入驻要求会比较高,审核更严格,对于草根站长来说会有一定难度,但也并非高不可攀,只要有足够的耐心,就一样可以入住。下面以搜狐自媒体为例,给大家介绍下具体的入驻方法。

  进入搜狐媒体平台页面后(mp.sohu.com),有自媒体的“申请入驻”按钮,进入后步是信息登记,需要提交姓名、身份证号及照片等信息,第二步是自媒体账号申请,需要提交辅助材料。辅助材料很重要,如果你已经有名气或有自己的微信公众号,那就容易通过,如果没有的话,需要在一些站点上发表过署名文章,提交相应链接就可以了。 当然,如果资金允许的话,淘宝上会有不少提供此类服务的商家,效率可能。

  2、百度推广

  在百度产品中建设的外链都属于高质量外链,可建外链的地方有百度百科、百度知道、百度博客、百度文库等,在百度文库和百度百科中建设的外链效果好,对内容质量的要求也高,需要人工审核。

  3、友情链接

  友情链接的作用依然重要,如果是新站,找些权重高的网站带带,发展起来会更顺利。

  4、问答网站外链

  问答类的外链权重也是很高的,相关网站包括百度知道、爱问知识人、搜搜问问、天涯问答、PCauto快问、爱打听、淘宝问答、中华网问答、丁丁问吧、360问答等等。不少问答站看似不能留链接,其实是需要一些技巧,比如用手机提问,PC回答,只要多去测试,就能找到方法。

  5、分类信息及商铺

  常用的分类信息站包括赶集网、58、百姓网等,其价值在于它可以带来精准流量。在分类信息站上发布基于用户需求的帖子,以长尾关键词做标题,就可以引来精准流量。如果在内容中加入外链,还能起到提升权重的作用。

  如果发布的信息量足够大,实现长尾词霸屏也是有可能的。曾经有一家网站使用长尾词做了3000个商铺,2000多个分类信息,每个商铺中都留下了链接和联系方式,能带来的流量就非常可观了。

  6、网摘和搜藏

  网摘和搜藏在搜索引擎排名中的地位是比较高的,作为内容聚合站,很多内容是网友的真实分享,因此权重会比较高。多积攒一些账号,发布有价值的内容,对于网站推广还是很有帮助的。

  7、在论坛及社区留外链

  基于百度新的垃圾外链算法,简单发论坛外链的作用已几乎为零,所以那种签名、评论之类的外链就不要再用了。怎样让论坛和社区继续发挥外链作用,这里需要一些方法:

  (1)、直播贴。开个新帖,设定某一主题,不断释放价值,推送行业相关信息或者经验,在直播的过程中把这个帖子搞火,然后在帖子中嵌入自己的网站品牌词,在释放价值的过程中不断曝光品牌。

  (2)、答疑帖。设定自己是行业专家,昵称要与品牌有关,然后开设一个答疑帖,回答新手提出的问题,在问答的过程中促成顶贴,这样帖子火了,品牌也曝光了。

  (3)、资源帖。任何一个行业都有一定的资源需求,比如说制作一些资源,将作者的网址加在下面,注明,谁想免费使用,需要保留作者网址,然后把这些资源免费传播出去,就可以坐等收链接了。

  或者我们可以将这些资源搜集起来打包并加入广告,以免费的方式分享出去,要求网友留言留邮箱,实现顶贴效果,帖子火了,就可以实现引流。

  8、博客外链

  现在传统博客的外链作用已经很小了,需要达到足够的量才能有效果。同时不要把眼光局限在新浪、网易、凤凰、搜狐这些平台,很多社区的博客平台影响力也很大,比如:人人小站、豆瓣小组、西祠部落、太平洋博客、宝宝树博客,平台非常多,只要多观察,就会发现大量的外链平台。微博外链的作用正在上升,粉丝经济的影响力相当强大,需要多关注。

  如何寻找外链平台对于很多新手来说是很困难的事情,下面是寻找外链的一些方法。

  1、简单直接domain:网址,这个可以基本看到对手所发外链信息,当然在百度站长工具平台推出的今天我们也可以在这个里面查询下效果。因为这里可以看到该网址所有的外链接。

  2、学会使用Intitle(注:限制搜索范围在标题之中) 例子:intitle:关键词 (其实可以直接搜索外链平台汇总)

  3、跟同行朋友互相交换资源

  从事seo行业的朋友都知道,仅靠自己一人之力是寻找不到多少高质量外链资源的,这个时候我们就需要多与同行朋友交流互换资源。

  4、友情链接平台

  代表网站go9go友情链接平台 、chinaz站长交易平台等,需要找更多的直接百度搜索 “友情链接平台“就可以啦。友情链接跟网址导航站一样,都是输出连接站这类网站往往权重都特别高,这类网站通常收录及快,无疑是一条高质量的外链。

  5、开放分类目录

  代表网站chinadmoz开放分类目录网站、35分类目录等,同上输出类网址,因为网站本身的特殊性加上目前有限的开放目录网站,因此这类资源变得尤为珍贵。

  6、网址导航站

  代表网站:hao123,输出类型网址同样属于高质量外链,我们要尽可能的区多做几个网址导航的外链。

  7、门户站博客

  新浪博客、搜狐博客、网易博客、百度博客、和讯博客 具体百度搜索博客网站大全就出来几百个。注:新浪博客基本秒收,用来做长尾词的排名还是可以的。

  8、行业站博客/商铺

  如阿里巴巴免费商铺、同行业B2B网站商铺等。这类网站跟博客一样属于二级域名范畴,我们在建立了商铺后不仅对我们的产品有推销作用,同时还给自己增加了一条外链。

  9、网络收藏夹/书签

  乐收收藏夹、qq书签等。每天做几条收藏效果也不错。

  10、各大网站/博客评论留言

  闲暇之余去热门的博客或各大热门的网站去留言、回复主题等。

  11、论坛社区

  论坛社区的挖掘方法第二条已提供:百度搜索:intitle:关键词 Powered by discuz!

  12、问答平台

  奇虎问答、搜搜问问、天涯问答、百度知道、新浪爱问等。如何去做问答网上有很多教程,大家自己去观阅。

  13、视频站

  优酷视频、六间房视频、土豆视频;平时没事随手到车间用手机拍下产品的制造过程、使用过程等,然后在发布到各大视频网站,顺便加上你的网址链接。

  14、分类信息/b2b平台

  如58同城、赶集网具体可以百度分类信息网址大全,b2b平台如阿里巴巴、慧聪、一呼百应等

  15、招聘类

  招聘类网站在填写公司简介和公司招聘信息时都是可以留入网址信息的,很多招聘类网站权重非常高,所以可以好好利用下了,在招聘的同时不妨给我们的网站留个外链。

  16、门户新闻投稿/付费投稿

  门户网站投稿:比如a5投稿、同行业门户站投稿等;付费投稿就是常见的买各大新闻网站的新闻外链,这个笔者不。

  17、RSS收藏/网摘

  抓虾 鲜果等

  18、查询缓存

  说直接点就是去各大在线站长工具网站查询网站收录、外链什么的会产生一个缓存,这时候正好被百度蜘蛛爬取然后收录到数据库,比如

  这种现象就是早期作弊工作喜欢用的将网址提交到各大在线站长工具网址里,然后一下可以增加N条外链等。这里警示我们一点不要太刻意的整这个东西,有时候查查被搜索引擎收录了起一个引蜘蛛的作用。

  19、百度产品

  百度开放平台自己去琢磨,百度知道、百度文库、百度贴吧、百度百科、百度空间等

关键词:

  robots.txt文件详细解说

  1. 什么是robots.txt文件?

  搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。

  请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

  2. robots.txt文件放在哪里?

  robots.txt文件应该放置在网站根目录下。举例来说,当spider访问一个网站(比如 http://www.abc.com)时,首先会检查该网站中是否存在http://www.abc.com/robots.txt这个文件,如果 Spider找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围。


网站 URL

相应的 robots.txt的 URL

http://www.esobao.cn/

http://www.esobao.cn/robots.txt

http://www.esobao.cn:80/

http://www.esobao.cn:80/robots.txt

http://www.esobao.cn:1234/

http://www.esobao.cn:1234/robots.txt

http://esobao.cn/

http://esobao.cn/robots.txt


  3. 我在robots.txt中设置了禁止百度收录我网站的内容,为何还出现在百度搜索结果中?

  如果其他网站链接了您robots.txt文件中设置的禁止收录的网页,那么这些网页仍然可能会出现在百度的搜索结果中,但您的网页上的内容不会被抓取、建入索引和显示,百度搜索结果中展示的仅是其他网站对您相关网页的描述。

  4. 禁止搜索引擎跟踪网页的链接,而只对网页建索引

  如果您不想搜索引擎追踪此网页上的链接,且不传递链接的权重,请将此元标记置入网页的<HEAD> 部分:

  <meta name="robots" content="nofollow">

  如果您不想百度追踪某一条特定链接,百度还支持更的控制,请将此标记直接写在某条链接上:

  <a href="signin.php" rel="nofollow">signin</a>

  要允许其他搜索引擎跟踪,但仅防止百度跟踪您网页的链接,请将此元标记置入网页的<HEAD> 部分:

  <meta name="Baiduspider" content="nofollow">

  5. 禁止搜索引擎在搜索结果中显示网页快照,而只对网页建索引

  要防止所有搜索引擎显示您网站的快照,请将此元标记置入网页的<HEAD>部分:

  <meta name="robots" content="noarchive">

  要允许其他搜索引擎显示快照,但仅防止百度显示,请使用以下标记:

  <meta name="Baiduspider" content="noarchive">

  注:此标记只是禁止百度显示该网页的快照,百度会继续为网页建索引,并在搜索结果中显示网页摘要。

  6. 我想禁止百度图片搜索收录某些图片,该如何设置?

  禁止Baiduspider抓取网站上所有图片、禁止或允许Baiduspider抓取网站上的某种特定格式的图片文件可以通过设置robots实现,请参考“robots.txt文件用法举例”中的例10、11、12。

  7. robots.txt文件的格式

  "robots.txt"文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:

  "<field>:<optional space><value><optionalspace>"

  在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow和Allow行,详细情况如下:

  User-agent:

  该项的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受 到"robots.txt"的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效, 在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、Allow行,那么名为"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。

  Disallow:

  该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被 robot访问。例如"Disallow:/help"禁止robot访问/help.html、/helpabc.html、/help /index.html,而"Disallow:/help/"则允许robot访问/help.html、/helpabc.html,不能访问 /help/index.html。"Disallow:"说明允许robot访问该网站的所有url,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。

  Allow:

  该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头 的URL 是允许robot访问的。例如"Allow:/hibaidu"允许robot访问/hibaidu.htm、/hibaiducom.html、 /hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。

  使用"*"and"$":

  Baiduspider支持使用通配符"*"和"$"来模糊匹配url。

  "$" 匹配行结束符。

  "*" 匹配0或多个任意字符。

  注:我们会严格遵守robots的相关协议,请注意区分您不想被抓取或收录的目录的大小写,我们会对robots中所写的文件和您不想被抓取和收录的目录做匹配,否则robots协议无法生效。

  8. URL匹配举例

Allow或Disallow的值

URL

匹配结果

/tmp

/tmp

yes

/tmp

/tmp.html

yes

/tmp

/tmp/a.html

yes

/tmp

/tmphoho

no




/Hello*

/Hello.html

yes

/He*lo

/Hello,lolo

yes

/Heap*lo

/Hello,lolo

no

html$

/tmpa.html

yes

/a.html$

/a.html

yes

htm$

/a.html

no

  9. robots.txt文件用法举例

例1. 禁止所有搜索引擎访问网站的任何部分

User-agent: *
Disallow: /

例2. 允许所有的robot访问
(或者也可以建一个空文件 "/robots.txt")

User-agent: *
Allow: /

例3. 仅禁止Baiduspider访问您的网站

User-agent: Baiduspider
Disallow: /

例4. 仅允许Baiduspider访问您的网站

User-agent: Baiduspider
Allow: /
User-agent: *
Disallow: /