- 军军小站|张军博客
搜索到与相关的文章
编程技术

只做一件事,做好一件事

今天去剪了发,没有任何特别的暧昧的理由,只因为头发太长难打理,每天都要扯半天,干脆剪掉算了,去了理发馆,坐了3个小时,剪了个短发,出门觉得好冷,对那些为我保暖却被我遗弃的发丝有些内疚。回到家,脱掉外套,坐在电脑前面,骤然减轻的头让脖子有些不适应,扭头看了看镜子,赫然端坐着一个男孩子,哈。因为新发型带来的陌生感让自己没有心思工作和学习,于是在网上闲逛,看到一篇褒扬某个独自一人去过多个国家旅行的女孩的帖子,还有她的blog,所有的日志都用英文写的,对于独自旅行

系统 2019-08-29 22:56:45 1867

编程技术

UML常见工具之Powerdesigner(downmoon)

在上一篇文章中,UML常见工具之NetBeans(downmoon)简要介绍了netBeansIDE的UML工具,今天再来看一下更常用的powerDesigner,相信这个工具大多数人不陌生。目前版本是15。真的很感谢Sybase,可以说PowerDesigner横跨了需求分析师、架构分析师、系统分析师、数据库设计师好几个领域,甚至集成了代码生成,只是一般很少使用。界面很简洁,入门级的使用也很简单,这里以一个简单的在线报价系统为例说明。图片多,文字少。望见

系统 2019-08-29 22:53:05 1867

编程技术

系统分区及挂载点

一、关于Linux的分区情况虽然硬盘分区表中最多能存储四个分区,但我们实际使用时一般只分为两个分区,一个是主分区(PrimaryPartion)一个是扩展分区(extendedpartition)两种,主分区可以马上被使用但不能再分区,扩展分区必须再进行分区后才能使用,也就是说它必须还要进行二次分区。那么由扩充分区再分下去的是什么呢?它就是逻辑分区(LogicalPartion),况且逻辑分区没有数量上限制。对习惯于使用Dos或Windows的朋友来说,有

系统 2019-08-12 09:30:23 1867

各行各业

nutch 存储到数据库

就像我们知道的一样,nutch是一个架构在lucene之上的网络爬虫+搜索引擎.是由lucene的作者在lucene基础之上开发,并整合了hadoop,实现在分布式云计算,使用google标准的HFDS文件系统作为存储结构,是一款高伸缩性能与高效高并发的网络爬虫+搜索引擎.FaceYe在后台已经整合了nutch,在适当的时候,就可以开始为用户提供高质量的知识索引服务.顺便说一下,nutch在生产环境中,并不能在windows下运行,需要在liux下运行,这

系统 2019-08-12 09:27:33 1867

各行各业

Class Loader

bootstrapClassLoaders负责装载java.*下的基本类extensionClassLoaders负责装载javax.*下的类systemClassLoaders负责系统(用户)实现的类三者的关系是bootstrapclassloaders是extensionclassloaders的父亲extensionclassloaders是systemclassloaders的父亲classloader的装载机制是parentdelegate的模型

系统 2019-08-12 01:32:43 1867

Python

【实战演练】Python+Django网站开发系列06-django数据库创建

在前面(【实战演练】数据库基本知识与原理系列https://blog.51cto.com/14423403/2418820)的文章,已经分享过数据库的原理,设计与开发的范式,以及根据我们django项目的需求,进行了数据库的设计。另外也介绍过数据库操作的基本SQL命令。以前不使用web框架来进行开发,那么就需要在一个php或者py文件(页面文件里面),从展示层(html、css、js)到逻辑层(php、python)到数据层(SQL)的东西都要写。直接用p

系统 2019-09-27 17:55:27 1866

Python

零基础写python爬虫之打包生成exe文件

1.下载pyinstaller并解压(可以去官网下载最新版):https://github.com/pyinstaller/pyinstaller/2.下载pywin32并安装(注意版本,我的是python2.7):https://pypi.python.org/pypi/pywin323.将项目文件放到pyinstaller文件夹下面(我的是baidu.py):4.按住shift键右击,在当前路径打开命令提示行,输入以下内容(最后的是文件名):pytho

系统 2019-09-27 17:54:46 1866

Python

零基础写python爬虫之使用Scrapy框架编写爬虫

网络爬虫,是在网上进行数据抓取的程序,使用它能够抓取特定网页的HTML数据。虽然我们利用一些库开发一个爬虫程序,但是使用框架可以大大提高效率,缩短开发时间。Scrapy是一个使用Python编写的,轻量级的,简单轻巧,并且使用起来非常的方便。使用Scrapy可以很方便的完成网上数据的采集工作,它为我们完成了大量的工作,而不需要自己费大力气去开发。首先先要回答一个问题。问:把网站装进爬虫里,总共分几步?答案很简单,四步:新建项目(Project):新建一个新

系统 2019-09-27 17:54:44 1866

Python

Python的subprocess模块总结

subprocess意在替代其他几个老的模块或者函数,比如:os.systemos.spawn*os.popen*popen2.*commands.*subprocess最简单的用法就是调用shell命令了,另外也可以调用程序,并且可以通过stdout,stdin和stderr进行交互。subprocess的主类复制代码代码如下:subprocess.Popen(args,bufsize=0,executable=None,stdin=None,stdou

系统 2019-09-27 17:54:43 1866