首先,建立如下存储过程1ALTERPROCEDURE[dbo].[DataBaseName_FULL_BACKUP_PRC]2as3begin4declare@bakPathvarchar(100)5declare@bakFileNamevarchar(50)6declare@bakDiskPathvarchar(300)78set@bakPath='D:\DB_BAK\'91011--print@bakPath12--完整備份13set@bakFileN
系统 2019-08-12 01:52:58 2258
//////查询实体[DataSet数据集]//////原命令名称///参数///DataSet数据集publicvirtualDataSetGetDataSetProce(stringstatementName,objectparamObject
系统 2019-08-12 01:33:02 2258
我的系統是win2003繁體版sp2,現在iis無法使用,我同事的也是,也不知道是不是跟在網域中有關係,因為我用虛擬機的繁體系統win2003R2版iis能够正常使用,不過曾经那台電腦也是在網域中,可是就能够用,還配置了支持php的,真是鬱悶死我了.在網上搜索一下,發現非常多人都遇到這種情況,几種方法都試過了,都還是不行,也試了用那個win2003R2版來安裝iis,還是不用访問,估計是iis與我在用的系統不匹配,在網上查到iis與系統不是統一個版本号的也
系统 2019-08-12 01:31:46 2258
最近在工作中遇到了一个小问题,如果要将字符串型的数据转换成dict类型,我第一时间就想到了使用json函数。但是里面出现了一些问题1、通过json来转换:In[1]:importjsonIn[2]:mes='{"InsId":2,"name":"lege-happy","CreationTime":"2019-04-23T03:18:02Z"}'In[3]:mes_to_dict=json.loads(mes)In[4]:printtype(mes_to_
系统 2019-09-27 17:57:05 2257
下午在用python将Linux的conf配置文件转化成字典dict时遇到了一个奇怪的问题,原先conf配置文件中没有注释行(以#开头的行),后来为了避免这种情况,添加了一个对以#开头的行删除的操作。实践结果颠覆了已有的认知,直接上代码示例。代码片段1#!/usr/bin/python#encoding:utf-8#-*-coding:utf8-*-importrelist_to_test=['#','#conf','NAME="Ubuntu"','VER
系统 2019-09-27 17:56:35 2257
任务:用python时间简单的统计任务-统计男性和女性分别有多少人。用到的物料:xlrd它的作用-读取excel表数据代码:importxlrdworkbook=xlrd.open_workbook('demo.xlsx')#打开excel数据表SheetList=workbook.sheet_names()#读取电子表到列表SheetName=SheetList[0]#读取第一个电子表的名称Sheet1=workbook.sheet_by_index(0
系统 2019-09-27 17:56:00 2257
笔者在今天的工作中,遇到了一个需求,那就是如何将Python字符串生成PDF。比如,需要把Python字符串‘这是测试文件'生成为PDF,该PDF中含有文字‘这是测试文件'。经过一番检索,笔者决定采用wkhtmltopdf这个软件,它可以将HTML转化为PDF。wkhtmltopdf的访问网址为:https://wkhtmltopdf.org/downloads.html,读者可根据自己的系统下载对应的文件并安装。安装好wkhtmltopdf,我们再安装这
系统 2019-09-27 17:54:40 2257
Python入门之内置模块--collections模块1、collections--基于Python自带的数据类型之上额外增加的几个数据类型fromcollections在内置数据类型(dict、list、set、tuple)的基础上,collections模块还提供了几个额外的数据类型:Counter、deque、defaultdict、namedtuple和OrderedDict以及判断什么是可迭代对象什么是迭代器(1)namedtuple生成可以
系统 2019-09-27 17:53:46 2257
什么是爬虫爬虫就是通过编写程序模拟浏览器上网,然后让其去互联网上抓取数据的过程。爬虫的分类1.通用爬虫:通用爬虫是搜索引擎(Baidu、Google、Yahoo等)“抓取系统”的重要组成部分。主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份。简单来讲就是尽可能的;把互联网上的所有的网页下载下来,放到本地服务器里形成备分,在对这些网页做相关处理(提取关键字、去掉广告),最后提供一个用户检索接口。搜索引擎如何抓取互联网上的网站数据?门户网站主
系统 2019-09-27 17:52:22 2257
模块是用类编写的,只有一个StringIO类,所以它的可用方法都在类中。此类中的大部分函数都与对文件的操作方法类似。例:复制代码代码如下:#coding=gbkimportStringIO,cStringIO,syss=StringIO.StringIO("JGoodisahandsomeboy")s.write("JGoodisahandsomeboy\r\n")s.write('okkkk中国')s.seek(0)prints.read()#最后4个字
系统 2019-09-27 17:50:39 2257