前言最近在学习python爬虫方面的知识,网上有一博客专栏专门写爬虫方面的,看到用urllib请求有道翻译接口获取翻译结果。发现接口变化很大,用md5加了密,于是自己开始破解。加上网上的其他文章找源码方式并不是通用的,所有重新写一篇记录下。爬取条件要实现爬取的目标,首先要知道它的地址,请求参数,请求头,响应结果。进行抓包分析打开有道翻译的链接:http://fanyi.youdao.com/。然后在按f12点击Network项。这时候就来到了网络监听窗口,
系统 2019-09-27 17:57:02 2184
目录:1.安装python32.安装flask3.简单的服务器代码编写4.设置FLASK_APP路径并启动服务器程序1.安装python3python3的安装这里就不过多赘述了,网上直接下载安装即可2.安装flask安装完Python3后我们就可以用pip工具进行安装了,当然还有很多安装方式大家可以自行百度。windows下使用cmd命令pipinstallflask3.简单的服务器代码main.pyfromflaskimportFlaskapp=Flas
系统 2019-09-27 17:56:28 2184
经常有需要扫描目录,对文件做批量处理的需求,所以对目录处理这块做了下学习和总结。Python中扫描目录有两种方法:os.listdir和os.walk。一、os.listdir方法os.listdir()方法用于返回指定的目录下包含的文件或子目录的名字的列表。这个列表以字母顺序。其得到的是仅当前路径下的文件名,不包括子目录中的文件,如果需要得到所有文件需要递归。它也不包括'.'和'..'即使它在目录中。语法格式如下:os.listdir(path)实例代码
系统 2019-09-27 17:56:26 2184
原文链接:https://edu.csdn.net/bundled/detail/49?utm_source=topic「超级星推官/每周分享」是一个围绕程序员生活、学习相关的推荐栏目。CSDN出品,每周发布,暂定5期。关键词:靠谱!优质!本期内容,我们将抽1人送出由我司程序员奉为“超级神作”的《疯狂Python讲义》1本,并在文章内隐藏了5门好课,敬请关注。2019年,有人说是Python元年,背靠AI和大数据,连续半年拿下TOP1编程语言,这些都给了P
系统 2019-09-27 17:56:09 2184
python字典操作提取key,valuedictionaryName[key]=value1.为字典增加一项2.访问字典中的值3、删除字典中的一项4、遍历字典5、字典遍历的key\value6、字典的标准操作符7、判断一个键是否在字典中8、python中其他的一些字典方法9、将两个字典合并a={'a':1,'b':2,'c':3}b={'aa':11,'bb':22,'cc':33}#方法一print(dict(a,**b))#方法二这其实就是在内存中创
系统 2019-09-27 17:55:54 2184
打算升级pycurl库,输入:pipinstall--upgradepycurl,提示如下:Lookinginindexes:https://pypi.tuna.tsinghua.edu.cn/simple/CollectingpycurlDownloadinghttps://pypi.tuna.tsinghua.edu.cn/packages/ac/b3/0f3979633b7890bab6098d84c84467030b807a1e2b31f5d301
系统 2019-09-27 17:55:33 2184
前言学pytest就不得不说fixture,fixture是pytest的精髓所在,就像unittest中的setup和teardown一样,如果不学fixture那么使用pytest和使用unittest是没什么区别的(个人理解)。fixture用途1.做测试前后的初始化设置,如测试数据准备,链接数据库,打开浏览器等这些操作都可以使用fixture来实现2.测试用例的前置条件可以使用fixture实现3.支持经典的xunitfixture,像unitte
系统 2019-09-27 17:54:47 2184
image花下猫语:近日,Python之父在Medium上开通了博客,并发布了一篇关于PEG解析器的文章(参见我翻的全文译文)。据我所知,他有自己的博客,为什么还会跑去Medium上写文呢?好奇之下,我就打开了他的老博客。最后一篇文章写于2018年5月,好巧不巧,写的竟是pgen解析器,正是他在新文中无情地吐槽的、说将要替换掉的pgen。在这篇旧文里,Guido回忆了他创造pgen时的一些考量,在当时看来,创造一个新的解析器无疑是明智的,只不过时过境迁,现
系统 2019-09-27 17:54:17 2184
爬虫爬取网页信息的思路:发送网页端请求—>获取响应内容—>解析内容—>获取想要的数据—>保存数据这次我们要实现的是爬取静态网页的股票数据,首先是获取沪深A股的所有股票代码,再用这些股票代码获取相应股票的信息东方财富网有所有个股的股票代码(沪深A股所有股票)查看其网页源代码在网页源代码中可以搜索到相应的元素,判断其是数据是静态的接下来是获取每只个股的信息,由于周六日没开市,东方财富网的个股信息没有显示这里改用百度股市通(个股)同样地检查元素可以发现个股的信息
系统 2019-09-27 17:52:55 2184
Python学习第二天之基础知识03:今天玩一个好玩的库——turtle库,翻译过来是海龟库,是一个用于画图的库,个人觉得很有意思。今天就来玩一下这个库。turtle库的引入:fromturtleimport*turtle的基本知识及语句:向前行进:forward()向后:backward()向左:left()向右:right()抬起画笔:penup()放下画笔:pendown()这是最基础的一些画笔指令,接下来介绍一些很好玩的指令:goto()将画笔移动
系统 2019-09-27 17:52:08 2184