发布于3月6日3月6日 Members 什么是SEO,所谓seo优化就是让百度,360,搜狗,等搜索引擎收录你的破站。也许你会说,搞那个干吗,反正我的网站百度迟早会收录的。但是SEO可以使你的网站更快的让搜索引擎收录,以及在搜索引擎中的排名。首先我们先看看本站的数据吧这里以百度为例,说说常见的SEO的几个数据主动推送:最为快速的提交方式,建议您将站点当天新产出链接立即通过此方式推送给百度,以保证新链接可以及时被百度收录。sitemap:您可以定期将网站链接放到Sitemap中,然后将Sitemap提交给百度。百度会周期性的抓取检查您提交的Sitemap,对其中的链接进行处理,但收录速度慢于主动推送。手工提交:如果您不想通过程序提交,那么可以采用此种方式,手动将链接提交给百度。自动推送:是轻量级链接提交组件,将自动推送的JS代码放置在站点每一个页面源代码中,当页面被访问时,页面链接会自动推送给百度,有利于新页面更快被百度发现。优化方法基于插件的优化:我们可以根据不同的平台,安装不同的seo插件。如:DZ,typecho,WP等常见的程序,下载相应的插件即可。利用Python爬虫我们可以利用下面代码对网站进行爬虫import os import re import shutil REJECT_FILETYPE = 'rar,7z,css,js,jpg,jpeg,gif,bmp,png,swf,exe' def getinfo(webaddress): global REJECT_FILETYPE url = 'http://'+webaddress+'/' print 'Getting>>>>> '+url websitefilepath = os.path.abspath('.')+'/'+webaddress if os.path.exists(websitefilepath): shutil.rmtree(websitefilepath) outputfilepath = os.path.abspath('.')+'/'+'output.txt' fobj = open(outputfilepath,'w+') command = 'wget -r -m -nv --reject='+REJECT_FILETYPE+' -o '+outputfilepath+' '+url tmp0 = os.popen(command).readlines() print >> fobj,tmp0 allinfo = fobj.read() target_url = re.compile(r'\".*?\"',re.DOTALL).findall(allinfo) print target_url target_num = len(target_url) fobj1 = open('result.txt','w') for i in range(target_num): if len(target_url[i][1:-1])<70: print >> fobj1,target_url[i][1:-1] else: print "NO" fobj.close() fobj1.close() if os.path.exists(outputfilepath): os.remove(outputfilepath) if __name__=="__main__": webaddress = raw_input("Input the Website Address(without \"http:\")>") getinfo(webaddress) print "Well Done."执行完成后,后生成一个result.txt文件。然后我们利用百度站长平台的提示语法,进行提交。参数说明:字段参数类型说明successint成功推送的url条数remainint当天剩余的可推送url条数not_same_sitearray由于不是本站url而未处理的url列表成功返回示例:{ "remain":4999998, "success":2, "not_same_site":[], "not_valid":[] }
参与讨论
你可立刻发布并稍后注册。 如果你有帐户,立刻登录发布帖子。