官方的说法:classmethod(function)中文说明:classmethod是用来指定一个类的方法为类方法,没有此参数指定的类的方法为实例方法,使用方法如下:classC:@classmethoddeff(cls,arg1,arg2,...):...看后之后真是一头雾水。说的啥子东西呢???自己到国外的论坛看其他的例子和解释,顿时就很明朗。下面自己用例子来说明。看下面的定义的一个时间类:classData_test(object):day=0mo
系统 2019-09-27 17:49:54 2102
3.插入排序(简单插入排序)3.1算法思想如果有一个已经有序的数据序列,要求在这个已经排好的数据序列中插入一个数,但要求插入后此数据序列仍然有序,这个时候就要用到一种新的排序方法——插入排序法,插入排序的基本操作就是将一个数据插入到已经排好序的有序数据中,从而得到一个新的、长度增加1的有序数据。插入排序的基本思想是:每步将一个待排序的记录,按其关键码值的大小插入前面已经排序的文件中适当位置上,直到全部插入完为止。同样,这个算法不需要额外的存储空间,空间复杂
系统 2019-09-27 17:49:40 2102
1.可传入参数:@app.route('/user/')#常用的不加参数的时候默认是字符串形式的@app.route('/post/')#常用的#指定int,说明是整型的@app.route('/post/')@app.route('/post/')@app.route('/login',methods=['GET','POST'])DEFAULT_CONVERTERS={'default':UnicodeConverter,'string':Unicod
系统 2019-09-27 17:49:32 2102
学习编程语言是很枯燥的,尤其是对一个编程零基础的人来说,更为枯燥!所以我们要从枯燥的学习中找点乐趣和动力!比如,抓点小姐姐的图片在这里插入图片描述完整代码importosimporttimeimportrequestsfromlxmlimportetree'''遇到不懂的问题?Python学习交流群:821460695满足你的需求,资料都已经上传群文件,可以自行下载!'''defget_img_url(url):''':paramurl:图集url:ret
系统 2019-09-27 17:49:24 2102
最近迷上了高效处理数据的pandas,其实这个是用来做数据分析的,如果你是做大数据分析和测试的,那么这个是非常的有用的!!但是其实我们平时在做自动化测试的时候,如果涉及到数据的读取和存储,那么而利用pandas就会非常高效,基本上3行代码可以搞定你20行代码的操作!该教程仅仅限于结合柠檬班的全栈自动化测试课程来讲解下pandas在项目中的应用,这仅仅只是冰山一角,希望大家可以踊跃的去尝试和探索!一、安装环境:1:pandas依赖处理Excel的xlrd模块
系统 2019-09-27 17:48:40 2102
importzipfileimporteasyguiasguifromthreadingimportThreaddefcrackPassword(zFile,password):try:zFile.extractall(pwd=password.encode("utf-8"))print("[+]crackpassword"+password)returnexcept(RuntimeError,zipfile.BadZipFile):print("密码:"
系统 2019-09-27 17:46:50 2102
Python的matplotlib包可以轻松的将数据可视化,博主最近遇到了一个问题,博主想同时在两个窗口展示两张图,但是代码运行结果总是显示一张图,把当前的图删掉之后才能显示另一张图。网上找了一些解决方案都是把它们放在一个窗口中,两个图片分别为子图。经过一段摸索,博主终于解决了这个问题,下面简单介绍一下。如下代码所示,首先要为每个图建立一个figure,这样每个图会单独显示在一个窗口中;然后等所有图代码都写好后在最后面加上plt.show(),这样每张图就
系统 2019-09-27 17:46:20 2102
一、网络爬虫的定义网络爬虫,即WebSpider,是一个很形象的名字。把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。网络蜘蛛是通过网页的链接地址来寻找网页的。从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来。这样看来,网络爬虫
系统 2019-09-27 17:38:09 2102
本文总结的是我们大家在python中常见的数据预处理方法,以下通过sklearn的preprocessing模块来介绍;1.标准化(StandardizationorMeanRemovalandVarianceScaling)变换后各维特征有0均值,单位方差。也叫z-score规范化(零均值规范化)。计算方式是将特征值减去均值,除以标准差。sklearn.preprocessing.scale(X)一般会把train和test集放在一起做标准化,或者在tr
系统 2019-09-27 17:38:06 2102
cURL是一个命令行工具,可以对文件传输使用许多协议,包括HTTP、FTP、SecureCopy(SCP)、Telnet等等。但是,除了可以用命令行通过Internet与端点对话外,还可以使用libcurl编写简单或复杂的程序,以自动化执行应用层的协议任务。本文将介绍cURL命令行工具,然后向您展示如何使用libcurl以及C和Python构建一个HTTP客户端。开发HTTP和FTP之类依赖于应用层协议的应用程序并不复杂,但也不简单。进一步讲,这不是应用程
系统 2019-08-29 23:50:35 2102