技术标签: python卷积神经网络人脸识别
Keras是一个简约,高度模块化的神经网络库。采用Python / Theano开发。
使用Keras如果你需要一个深度学习库:
可以很容易和快速实现原型(通过总模块化,极简主义,和可扩展性)
同时支持卷积网络(vision)和复发性的网络(序列数据)。以及两者的组合。
无缝地运行在CPU和GPU上。
keras的资源库网址为https://github.com/fchollet/keras
本文使用keras尝试配置了一个CNN(仿造http://blog.csdn.net/u012162613/article/details/43277187,用的图片资源也是来自于此),程序更简洁,检测正确率可以达到95%。下面是测试的代码:
'''Train a simple convnet on the part olivetti faces dataset.
Run on GPU: THEANO_FLAGS=mode=FAST_RUN,device=gpu,floatX=float32 python mnist_cnn.py
Get to 95% test accuracy after 25 epochs (there is still a lot of margin for parameter tuning).
'''
from __future__ import print_function
import numpy
numpy.random.seed(1337) # for reproducibility
from PIL import Image
from keras.models import Sequential
from keras.layers.core import Dense, Dropout, Activation, Flatten
from keras.layers.convolutional import Convolution2D, MaxPooling2D
from keras.optimizers import SGD
from keras.utils import np_utils
# There are 40 different classes
nb_classes = 40
nb_epoch = 40
batch_size = 40
# input image dimensions
img_rows, img_cols = 57, 47
# number of convolutional filters to use
nb_filters1, nb_filters2 = 5, 10
# size of pooling area for max pooling
nb_pool = 2
# convolution kernel size
nb_conv = 3
def load_data(dataset_path):
img = Image.open(dataset_path)
img_ndarray = numpy.asarray(img, dtype='float64')/256
#400pictures,size:57*47=2679
faces=numpy.empty((400,2679))
for row in range(20):
for column in range(20):
faces[row*20+column]=numpy.ndarray.flatten(img_ndarray [row*57:(row+1)*57,column*47:(column+1)*47])
label=numpy.empty(400)
for i in range(40):
label[i*10:i*10+10]=i
label=label.astype(numpy.int)
#train:320,valid:40,test:40
train_data=numpy.empty((320,2679))
train_label=numpy.empty(320)
valid_data=numpy.empty((40,2679))
valid_label=numpy.empty(40)
test_data=numpy.empty((40,2679))
test_label=numpy.empty(40)
for i in range(40):
train_data[i*8:i*8+8]=faces[i*10:i*10+8]
train_label[i*8:i*8+8]=label[i*10:i*10+8]
valid_data[i]=faces[i*10+8]
valid_label[i]=label[i*10+8]
test_data[i]=faces[i*10+9]
test_label[i]=label[i*10+9]
rval = [(train_data, train_label), (valid_data, valid_label),
(test_data, test_label)]
return rval
def Net_model(lr=0.005,decay=1e-6,momentum=0.9):
model = Sequential()
model.add(Convolution2D(nb_filters1, nb_conv, nb_conv,
border_mode='valid',
input_shape=(1, img_rows, img_cols)))
model.add(Activation('tanh'))
model.add(MaxPooling2D(pool_size=(nb_pool, nb_pool)))
model.add(Convolution2D(nb_filters2, nb_conv, nb_conv))
model.add(Activation('tanh'))
model.add(MaxPooling2D(pool_size=(nb_pool, nb_pool)))
#model.add(Dropout(0.25))
model.add(Flatten())
model.add(Dense(1000)) #Full connection
model.add(Activation('tanh'))
#model.add(Dropout(0.5))
model.add(Dense(nb_classes))
model.add(Activation('softmax'))
sgd = SGD(lr=lr, decay=decay, momentum=momentum, nesterov=True)
model.compile(loss='categorical_crossentropy', optimizer=sgd)
return model
def train_model(model,X_train,Y_train,X_val,Y_val):
model.fit(X_train, Y_train, batch_size=batch_size, nb_epoch=nb_epoch,
show_accuracy=True, verbose=1, validation_data=(X_val, Y_val))
model.save_weights('model_weights.h5',overwrite=True)
return model
def test_model(model,X,Y):
model.load_weights('model_weights.h5')
score = model.evaluate(X, Y, show_accuracy=True, verbose=0)
print('Test score:', score[0])
print('Test accuracy:', score[1])
return score
if __name__ == '__main__':
# the data, shuffled and split between tran and test sets
(X_train, y_train), (X_val, y_val),(X_test, y_test) = load_data('olivettifaces.gif')
X_train = X_train.reshape(X_train.shape[0], 1, img_rows, img_cols)
X_val = X_val.reshape(X_val.shape[0], 1, img_rows, img_cols)
X_test = X_test.reshape(X_test.shape[0], 1, img_rows, img_cols)
print('X_train shape:', X_train.shape)
print(X_train.shape[0], 'train samples')
print(X_val.shape[0], 'validate samples')
print(X_test.shape[0], 'test samples')
# convert class vectors to binary class matrices
Y_train = np_utils.to_categorical(y_train, nb_classes)
Y_val = np_utils.to_categorical(y_val, nb_classes)
Y_test = np_utils.to_categorical(y_test, nb_classes)
model=Net_model()
#train_model(model,X_train,Y_train,X_val,Y_val)
#score=test_model(model,X_test,Y_test)
model.load_weights('model_weights.h5')
classes=model.predict_classes(X_test,verbose=0)
test_accuracy = numpy.mean(numpy.equal(y_test,classes))
print("accuarcy:",test_accuracy)
先看一下最终爬取的效果,每个英雄的壁纸都被爬取下来了: “黑暗之女 安妮”的12张壁纸: 高清大图: 下面开始正式教学! 版本:Python 3.5 工具:Jupyter notebook实现各个环节,最终整合成LOL_scrawl.py文件 在使用爬虫前,先花一定时间对爬取对象进行了解,是非常有必要的,这样可以帮助我们科学合理地...
1、一个网络商城1天大概产生多少G的日志?10GB2、1天大概有多少条日志记录(在不清洗的情况下)?1千万条3、日访问量大概有多少个?几十万个独立访客4、注册数大概多少?不清楚几百万吧5、我们的日志是不是除了apache的访问日志是不是还有其他的日志?log4j日志6、你们的服务器有多少台?几十台7、你们服务器的内存多大?有的8G,有的16G8...
在JDK1.0中,可以用stop方法来终止,但是现在这种方法已经被禁用了,改用interrupt方法。Thread.interrupt()方法不会中断一个正在运行的线程。它的作用是,在线程受到阻塞时抛出一个中断信号,这样线程就得以退出阻塞的状态。更确切的说,如果线程被Object.wait, Thread.join和Thread.sleep三种方法之一阻塞,那么,它将接收到一个中断异常(Inter...
二叉树的深度 题目描述输入一棵二叉树的根节点,求该树的深度。从根节点到叶节点依次经过的节点(含根、叶节点)形成树的一条路径,最长路径的长度为树的深度。例如:给定二叉树 [3,9,20,null,null,15,7], 3 / \ 9 20 / \ 15 7返回它的最大深度 3 。提示:节点总数 <= 10000来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/er-cha-shu-de-
本系列笔记为方便日后自己查阅而写,更多的是个人见解,也算一种学习的复习与总结,望善始善终吧~马尔科夫矩阵Markov Matrix 马尔科夫矩阵Markov Matrix有两个性质:所有元素大于等于0,所有矩阵的列相加等于1。这里性质导致一些有趣的特性:马尔科夫矩阵Markov Matrix 的幂依然是马尔科夫矩阵Markov Matrix马尔科夫矩阵Markov Matrix的其中一个特
在新公司使用了近两个月的windows开发,那是真的难受~~下周准备带自己的笔记本去上班,闲话少叙日常开发过程中,经常会用到一些adb的指令 比如从手机存储中pull一个log文件到pc,虽然代码不多,但毕竟懒才是推动程序员进步的源泉,我将cmd指令 adb pull /sdcard/xx.log D:/Temp/ 写成批处理文件 @echo off IF EXIST C:\Us
目录一、信息收集二、漏洞探测三、漏洞利用四、提权五、总结靶场信息:地址:https://www.vulnhub.com/entry/bluesky-1,623/发布日期:2020年12月10日难度:简单目标:获取root shell即([email protected]:~#),然后在/root下获取标志运行:VMware Workstation 16.x Pro(默认的NAT网络模式,VMware比VirtualBox更好地工作)一、信息收集1...
50个c/c++源代码网站C/C++是最主要的编程语言。这里列出了50名优秀网站和网页清单,这些网站提供c/c++源代码。这份清单提供了源代码的链接以及它们的小说明。我已尽力包括最佳的C/C++源代码的网站。这不是一个完整的清单,您有建议可以联系我,我将欢迎您的建议,以进一步加强这方面的清单。 1、http://snippets.dzone.com/tag/c/ –数以千计的有用的C语言源代码片
top(监控CPU/内存/进程/线程)# 直接使用top# 查看进程里的线程信息top -Hp 7275 # 查询PID为7275的线程数ps hH p 7275 |wc -l# 关键字为java 的进程的线程数pstree -p `ps -e | grep java | awk '{print $1}'` | wc -l# 查询7275的线程pstree -p 7275#...
Ubuntu16.04下在Python3.5安装OpenCV3.3.1安装过程(官网安装教程 https://docs.opencv.org/trunk/d7/d9f/tutorial_linux_install.html):1. 用Ctrl+Alt+T打开终端,输入下述命令,安装OpenCV3.3.1的依赖包sudo apt-get install build-essential
这是一个关于讨论配置和调试在应用程序服务器上运行而不使用MyEclipse服务器启动连接器的应用程序的高级教程,无论MyEclipse是在 同一台计算机上运行或是在不同的计算机上运行都可。对于一般易于配置和调试的应用程序,强烈建议MyEclipse服务连接器可用于应用服务器中的所有服 务器操作详细教程。在执行本教程之前,请仔细阅读它。
文章目录前言1.获取歌曲搜索列表api接口2.获取单个歌曲详细信息包括歌词3.总结前言首先说明,本教程仅供个人学习,研究使用,禁止用于任何的商业和非法用途。(手动狗头)之所以要研究这个,是因为我想让我的播放器连上网络,而如果自己用数据库保存歌曲的相关信息不太现实,于是想到使用市面上的音乐软件,看看能不能找到api接口。最后声明,仅供学习使用,切莫用于商业用途。1.获取歌曲搜索列表api接口打开酷狗官网,在搜索栏中输入凤凰传奇,并按F12进入开发者工具,并选择Network(Network会显..