看过这篇《2000字谏言,给那些想学Python的人,建议收藏后细看!》的读者应该都对一个命令有点印象吧?没错,就是linux中经常会用到的ls命令。文章中我就提到如何提升自己的python能力呢?直接找项目写,但是作为零基础/小白/入门的你来说做一个博客还要学web框架、html、css、js,又成为了阻碍你写实际项目的阻碍。所以我就推荐了这个命令:ls。写一个ls非常简单,你只需要会一点linux的基础知识,知道ls能做什么就好了。那今天就给大家码了一
系统 2019-09-27 17:48:24 1718
在web开发中经常用到验证码,为了防止机器人注册或者恶意登陆和查询等,作用不容小觑但是验证码其实不是一个函数就能搞定的,它需要生成图片和水印,其实每种语言都有相关的函数生成图片和文字水印。包括我熟悉的php,呵呵,今天主要来分享如何用python生成验证码。python生成验证码主要用到如下模块:Image,ImageDraw,ImageFont,ImageFilter和随机数生成模块Random。代码如下:#!/usr/bin/envpython#cod
系统 2019-09-27 17:48:19 1718
问题提出:有时候我们采集网页,处理完毕后将字符串保存到文件或者写入数据库,这时候需要制定字符串的编码,如果采集网页的编码是gb2312,而我们的数据库是utf-8的,这样不做任何处理直接插入数据库可能会乱码(没测试过,不知道数据库会不会自动转码),我们需要手动将gb2312转换成utf-8。首先我们知道,python里的字符默认是ascii码,英文当然没问题啦,碰到中文的时候立马给跪。不知道你还记不记得,python里打印中文汉字的时候需要在字符串前面加u
系统 2019-09-27 17:48:17 1718
类与类的关系依赖关系#依赖关系:将一个类的类名或者对象传给另一个类的方法中.classElephant:def__init__(self,name):self.name=namedefopen(self,r1):#print(ref1)print(f'{self.name}默念三声:芝麻开门')r1.open_door()defclose(self):print('大象默念三声:芝麻关门')classRefrigerator:def__init__(sel
系统 2019-09-27 17:48:13 1718
URL提交是百度提供的一个站长工具,用于给站长提供手工收录某些URL的接口,但是该接口有验证码识别部分,比较难弄。所以编写了如下程序进行验证码自动识别:主要思路获取多个验证码,提交到http://lab.ocrking.com/进行多次识别,然后计算每个验证码图片识别出来的字母或数字进行统计,得出统计率最高的即为验证码。复制代码代码如下:#!/usr/bin/envpython#-*-coding:utf-8-*-importrequestsimportt
系统 2019-09-27 17:48:10 1718
在使用uliweb开发soapwebservice后,启动uliweb时,werkzeug的日志莫名其妙丢失了。正常的日志:复制代码代码如下:[INFO]*LoadingDebuggedApplication...[INFO]*Runningonhttp://localhost:8000/[INFO]*Restartingwithreloader[INFO]*LoadingDebuggedApplication...异常的日志:复制代码代码如下:[INFO
系统 2019-09-27 17:48:08 1718
fromPILimportImage,ImageFont,ImageDrawdefCreateImg(text):fontSize=30liens=text.split('\n')print(len(liens))im=Image.new("RGB",(480,len(lines)*(fontSize+5)),(255,0,0))dr=ImageDraw.Draw(im)fontPath=r"C:\Windows\Fonts\STKAITI.TTF"#fo
系统 2019-09-27 17:48:05 1718
本文实例讲述了python实现ip代理池功能。分享给大家供大家参考,具体如下:爬取的代理源为西刺代理。用xpath解析页面用telnet来验证ip是否可用把有效的ip写入到本地txt中。当然也可以写入到redis、mongodb中,也可以设置检测程序当代理池中的ip数不够(如:小于20个)时,启动该脚本来重新获取ip,本脚本的代码也要做相应的改变。#!/usr/bin/envpython#-*-coding:utf-8-*-#@Version:1.0#@T
系统 2019-09-27 17:47:57 1718
当年学爬虫的第一个想法就是想把双色球的数据爬下来,然后看能不能用什么牛叉的算法,或者数据分析把后面的双色球概率算出来;知道现在才抽空写了这几行代码爬取了双色球的数据,我也真是够懒的;也算是闲来无事,练手的爬虫吧;好了,多余的就不说了,直接上代码吧,代码注释已经很清楚了;importsysimportrequestsfromlxmlimportetreedefget_url(url):#请求url的方法,返回htmlheaders={'User-Agent'
系统 2019-09-27 17:47:57 1718
背景最近在计划明年从北京rebase到深圳去,所以最近在看深圳的各个方面。去年在深圳呆过一段时间,印象最深的是,深圳总是突然就下雨,还下好大的雨。对于我这种从小在南方长大但是后面又在北京呆了2年多的人来说,熟悉而又无奈。今天早上本来想随便浏览浏览一个天气网站,看看深圳的历史天气如何的,但是,一不小心发现,这家网站竟然直接能用API来抓数据,这~~~还不抓一波,省的自己一个月一个月地看。先上最后的效果图:所有的code都在我的GitHub上:boydfd下面
系统 2019-09-27 17:47:57 1718