本函数可以使用参数real+imag*j方式创建一个复数。也可以转换一个字符串的数字为复数;或者转换一个数字为复数。如果第一个参数是字符串,第二个参数不用填写,会解释这个字符串且返回复数;不过,第二个参数不能输入字符串方式,否则会出错。real和imag参数可以输入数字,如果imag参数没有输入,默认它就是零值,这个函数就相当于int()或float()的功能。如果real和imag参数都输入零,这个函数就返回0j。有了这个函数,就可以很方便地把一个列表转
系统 2019-09-27 17:53:57 1722
本文实例讲述了python实现对象列表根据某个属性排序的方法。分享给大家供大家参考,具体如下:对于一个已有的pythonlist,里面的内容是一些对象,这些对象有一些相同的属性值,在一些特定的情况下,需要自己选择特定的排序,也就是根据某一个具体的属性来排序,在网上找了下资料,一般来说有两种方法,但从根本上来说,还是调用了list.sort方法来实现。下面是简单的测试代码片段:#coding:utf-8classPerson:def__init__(self
系统 2019-09-27 17:53:53 1722
目录基础知识学习(MOOC嵩天+零散知识)无基础不能高楼,合抱之木,生于毫末,九层之台,起于累土1.1PythonMOOC练习31.2PythonMOOC练习41.3python中的随机函数random的用法示例1.4Python文本词频统计的编码问题-MOOC嵩天1.5Python中的复数和误区1.6Python计算圆周率的两种方法1.7Python实现七段数码管显示效果1.8Python实现科赫图形设计1.9Python基本统计值计算1.10Pytho
系统 2019-09-27 17:53:52 1722
Windows•安装lxml最好的安装方式是通过wheel文件来安装,http://www.lfd.uci.edu/~gohlke/pythonlibs/,从该网站找到lxml的相关文件。假如是Python3.5版本,WIndows64位系统,那就找到lxml‑3.7.2‑cp35‑cp35m‑win_amd64.whl这个文件并下载,然后通过pip安装。下载之后,运行如下命令安装:pip3installwheelpip3installlxml‑3.7.2
系统 2019-09-27 17:53:34 1722
本文实例讲述了Python计算程序运行时间的方法。分享给大家供大家参考。具体实现方法如下:复制代码代码如下:importtimedefstart_sleep():time.sleep(3)if__name__=='__main__':#Thestarttimestart=time.clock()#Aprogramwhichwillrunfor3secondsstart_sleep()#TheEndtimeend=time.clock()print("The
系统 2019-09-27 17:53:31 1722
概述由于Python2的官方维护期即将结束,越来越多的Python项目从Python2切换到了Python3。可是,在实际的工作中,我发现好多人都是在用Python2的思维去写Python3的代码,Python3给我们提供了很多新的、很方便的特性,可以帮助我们快速的编写代码。f-strings(3.6+)在Python里面,我们经常使用format函数来格式化字符串,例如:user="JaneDoe"action="buy"log_message='Use
系统 2019-09-27 17:53:30 1722
微信订阅号:Rabbit_svip本次笔记基于python3.7在大多数编程语言中,注释都是一项非常有用且常用的功能。在python中有3种注释方法。以#号开头三个单引号(''')三个双引号(""")以#号开头#sayhiprint("HelloWorld!")print("Python~")#这是一条注释#号后面跟着的部分都属于注释。#号适合用在单行注释。三个单引号(''')和三个双引号(""")'''这是多行注释,使用单引号。这是多行注释,使用单引号。
系统 2019-09-27 17:53:23 1722
案例:爬取使用搜狗根据指定词条搜索到的页面数据(例如爬取词条为‘周杰伦'的页面数据)importurllib.request#1.指定urlurl='https://www.sogou.com/web?query=周杰伦''''2.发起请求:使用urlopen函数对指定的url发起请求,该函数返回一个响应对象,urlopen代表打开url'''response=urllib.request.urlopen(url=url)#3.获取响应对象中的页面数据:r
系统 2019-09-27 17:53:11 1722
早听说用python做网络爬虫非常方便,正好这几天单位也有这样的需求,需要登陆XX网站下载部分文档,于是自己亲身试验了一番,效果还不错。本例所登录的某网站需要提供用户名,密码和验证码,在此使用了python的urllib2直接登录网站并处理网站的Cookie。Cookie的工作原理:Cookie由服务端生成,然后发送给浏览器,浏览器会将Cookie保存在某个目录下的文本文件中。在下次请求同一网站时,会发送该Cookie给服务器,这样服务器就知道该用户是否合
系统 2019-09-27 17:53:11 1722
#使用StandardScaler进行数据预处理importnumpyimportmatplotlib.pyplotaspltfromsklearn.datasetsimportmake_blobsX,y=make_blobs(n_samples=40,centers=2,random_state=50,cluster_std=2)plt.scatter(X[:,0],X[:,1],c=y,cmap=plt.cm.cool)plt.show()#导入Sta
系统 2019-09-27 17:52:41 1722