1、新建独立运行环境,命名为env[root@vultr~]#mkdirprojects#测试的项目总目录[root@vultr~]#pip3installvirtualenv[root@vultr~]#cdprojects[root@vultrprojects]#virtualenvenv--python=python3--no-site-packages--python:指定Python版本--no-site-packages:不复制系统已安装Pyth
系统 2019-09-27 17:57:01 2285
python正则符号意思说明re1|re2匹配re1或者re2.匹配除了\n的任意字符^字符串的起始部分$字符串的结尾部分*对前面的表达式匹配0次或多次+对前面的匹配1次或多次?对前面的匹配0次或者一次{N}匹配N次{M,N}匹配M到N次[…],[0-9],[A-Za-z]匹配方括号字符集里的单个字符[^A-Z]不匹配字符集里的任意一个字符(…)匹配封闭的表达式,另存为子组\d数字\w字母数字字符\s空格\b单词边界the匹配的是the这个字符串\bthe
系统 2019-09-27 17:56:29 2285
python读取Excel表格文件,例如获取这个文件的数据python读取Excel表格文件,需要如下步骤:1、安装Excel读取数据的库-----xlrd直接pipinstallxlrd安装xlrd库#引入Excel库的xlrdimportxlrd2、获取Excel文件的位置并且读取进来#导入需要读取Excel表格的路径data=xlrd.open_workbook(r'C:\Users\NHT\Desktop\Data\\test1.xlsx')tab
系统 2019-09-27 17:54:19 2285
操作字典内元素的个数len(dic)判断字典中是否存在某个键dic={"domain":"csdn.net","expiry":1561747176.199094,"httpOnly":false,"name":"dc_tos","path":"/","secure":false,"value":"pttcq0"}if'expiry'indic:print("存在")https://www.cnblogs.com/xmnote/p/9334880.html
系统 2019-09-27 17:53:24 2285
Python开发中有哪些高级技巧?这是知乎上一个问题,我总结了一些常见的技巧在这里,可能谈不上多高级,但掌握这些至少可以让你的代码看起来Pythonic一点。如果你还在按照类C语言的那套风格来写的话,在codereview恐怕会要被吐槽了。列表推导式>>>chars=[cforcin'python']>>>chars['p','y','t','h','o','n']字典推导式>>>dict1={'a':1,'b':2,'c':3,'d':4,'e':5}>
系统 2019-09-27 17:50:17 2285
Python的版本有很多,很多第三方库也有很多不同的版本,不同的版本也可能是互不兼容的,在本机运行不同的项目,可能需要不同的环境。为了不和本机真实的环境相互冲突,我们可以同时创造多个虚拟环境,在不同的虚拟环境中运行不同的项目1、在开始处点运行,输入cmd打开命令行,在命令行中输入pip命令piplist(查看已安装的库)pipinstallvirtualenv(安装创建虚拟环境的库)2、vir--第三方库安装成功后,在桌面创建一个虚拟环境3、打开桌面的虚拟
系统 2019-09-27 17:49:39 2285
转自:opencv+python3.6图像旋转、并保持图像像素大小不变、不被裁剪(旋转90/180/270度)importcv2importnumpyasnpimportos,shutildefrotate_bound(image,angle):#grabthedimensionsoftheimageandthendeterminethe#center(h,w)=image.shape[:2](cX,cY)=(w//2,h//2)#grabtherotat
系统 2019-09-27 17:49:29 2285
说检查点,其实就是对过去历史的记录,可以认为是log.不过这里进行了简化.举例来说,我现在又一段文本.文本里放有一堆堆的链接地址.我现在的任务是下载那些地址中的内容.另外因为网络的问题或者网站的问题,每次下载可能不会非常的成功.有可能出现断链或者socket异常错误。不过不管产生什么样的错误,我都希望我的程序能够一直跑下去。或者能停掉后,继续从为下载的链接处跑。而不是从开始的地方跑。这个问题非常简单。因为这些链接是上下文无关的(上下文有关的情况要另外分析)
系统 2019-09-27 17:48:07 2285
此程序以李毅吧为例子,以面向对象的设计思想实现爬取保存网页数据,暂时并未用到并发处理,以后有机会的话会加以改善首先去百度贴吧分析贴吧地址栏中url后的参数,找到分页对应的参数pn,贴吧名字对应的参数kw首先创建类,写好__init__方法,run方法,__init__方法里先可以直接写passrun方法里大概整理一下整体的思路构造url列表,因为要爬取1000页,每页需对应一个url遍历发送请求,获取响应保存将可封装的步骤封装到单独的方法,所以这里又增加了
系统 2019-09-27 17:46:58 2285
fromemail.mime.textimportMIMETextfromsmtplibimportSMTP_SSLdefmain():sender='sender@yandex.com'receiver=['receiver@163.com']message=MIMEText('SendanemailviaPython3')message['From']=sendermessage['To']=','.join(receiver)message['Sub
系统 2019-09-27 17:46:54 2285