搜索到与相关的文章
各行各业

【OpenCV】图像像素随机化:雪花漫天飞

近来经常和心理系做实验,总是有各种“什么什么随机化,刺激的物理性质保持一样。。”的需求。之前做《去掩蔽》的实验时,有一套图片就是做的像素随机化,这是最简单的随机化了。当时图像只有两种像素,灰的和深灰的,而且深灰的比较少。于是我就统计了深灰像素点的个数,然后在一张同样大的灰色图片中的随机位置洒深灰像素点。intpix_count=0;for(inti=0;i

系统 2019-08-12 01:32:23 2542

各行各业

辉哥opencv学习之路【一】——前言

介绍opencv介绍自行百度,走好不送!由于opencv的资料不是很多,所以对于新手有很多很蛋痛的问题,所以准备写下自己学习opencv的经验,让别人少走弯路这里我也是零基础学习opencv所以水平有限,高手请绕行,走好不送!我学习opencv主要用于图像识别和手势识别,在后期还会重点学习移动平台上的图像识别和手势识别由于平时课业繁忙,所以博客只能不定期更新,往志同道合的可以加我QQ大家一起探讨,当然发邮件也行联系方式:279291014@qq.com辉哥

系统 2019-08-12 01:32:05 2542

Python

python之正则标志位和模式

标志位说明re.I字母不区分大小写re.S使.匹配包括换行re.X忽略空格和#后面的注释re.M多行匹配,影响^和$re.UUnicode解码,影响\w,\W,\b,\B,\d,\D,\s,\Sre.L本地化识别匹配,影响\w,\W,\b,\B,\d,\D,\s,\S模式说明^匹配字符串的开头$匹配字符串的末尾。.匹配任意一个字符,不包括换行符l或*匹配0个以上+匹配1个以上?匹配最少字符(非贪婪模式)模式说明[]匹配组内字符,[abc]匹配a,b,c[^

系统 2019-09-27 17:56:14 2541

Python

Python数据可视化编程实战:导入数据

1.从csv文件导入数据原理:with语句打开文件并绑定到对象f。不必担心在操作完资源后去关闭数据文件,with的上下文管理器会帮助处理。然后,csv.reader()方法返回reader对象,通过该对象遍历所读取文件的所有行。实验结果截图:2.从Excel中导入文件数据Excel文件可以转换成csv文件,然后通过上述的方法导入,但是如果想自动化地对大量文件进行数据管道处理(作为数据连续处理流程的一部分),那么手动把每个Excel文件转换成CSV文件的做法

系统 2019-09-27 17:55:11 2541

Python

windows系统下给python安装gdal、ogr的操作

转载请注明作者(独孤尚良dugushangliang)出处:https://blog.csdn.net/dugushangliang/article/details/83055390提前声明:安装有两种方式,一种是独立于python环境的安装,一种是依附于python环境的安装。请各位需要参考的,先浏览下再决定使用哪种安装。ogr附带在gdal,所以我们只要安装了gdal就可以用ogr了。资料找了好久。https://blog.csdn.net/u0141

系统 2019-09-27 17:52:59 2541

Python

Python 3.8新特征之asyncio REPL

前言我最近都在写一些Python3.8的新功能介绍的文章,在自己的项目中也在提前体验新的Python版本。为什么我对这个Python3.8这么有兴趣呢?主要是因为在Python2停止官方维护的2020年来临之前,Python3.8是最后一个大版本,虽然还没有公布Python3.9的发布时间表,但是按过去的经验,我觉得至少等Python3.8.4发布之后才可能发布Python3.9.0,那会应该已经在2020年年末了。所以大家最近2年的话题都会是Python

系统 2019-09-27 17:48:51 2541

Python

Python简单的数据分析:词云分析周杰伦《晴天》

直接上代码实现效果wordcloud还提供了命令行版wordcloud-cli,一行命令即可。下面进行歌词的情感分析情感分析结果s1=SnowNLP(s.sentences[0])s1.sentiments0.8849970682062196#正向情感#分析好不容易又能再多爱一天s1=SnowNLP(s.sentences[-2])s1.sentiments0.21646625648493734#这个情绪就比较负面了

系统 2019-09-27 17:48:32 2541

Python

用python对训练集和测试集进行特征规范化处理

个人理解这里的规范化处理指对提取后的特征集进行处理,不是对原始的数据信号进行处理,包括归一化和标准化。规范化的原因:不同特征具有不同量级时会导致:a.数量级的差异将导致量级较大的特征占据主导地位;b.数量级的差异将导致迭代收敛速度减慢;c.依赖于样本距离的算法对于数据的数量级非常敏感。归一化:,也就是原数据减去该特征列最小值,再除以该特征列的极差,将属性缩放到[0,1]之间。标准化:,也就是原数据减去该特征列的均值,再除以该特征列的标准差。注意:1.所谓规

系统 2019-09-27 17:48:10 2541

Python

python数据处理实战(必看篇)

一、运行环境1、python版本2.7.13博客代码均是这个版本2、系统环境:win764位系统二、需求对杂乱文本数据进行处理部分数据截图如下,第一个字段是原字段,后面3个是清洗出的字段,从数据库中聚合字段观察,乍一看数据比较规律,类似(币种金额万元)这样,我想着用sql写条件判断,统一转换为‘万元人民币'单位,用sql脚本进行字符串截取即可完成,但是后面发现数据并不规则,条件判断太多清洗质量也不一定,有的前面不是左括号,有的字段里面没有币种,有的数字并不

系统 2019-09-27 17:46:38 2541

编程技术

牛腩自制TXT文本分割工具

以前在博客园中看到某位朋友也发过一个分割工具的,不过那时自己不需要,也就没有收藏,今天自己需要把一个大的TXT文本文件分割成多份了,可又找不着那篇文章了,只好自己做了个简单的,效果如图:以下为下载地址:单文件下载:http://taotao.wsyren.com/download/txt_singlefile.rar源码下载:http://taotao.wsyren.com/download/txt_source.rar牛腩自制TXT文本分割工具

系统 2019-08-29 23:28:07 2541