【sklearn入门】决策树在sklearn中的实现--实战红酒分类案例_闫究生的博客-程序员资料

技术标签: 机器学习  sklearn  sklarn  决策树  

scikit-learn简介

scikit-learn,又写作sklearn,是一个开源的基于python语言的机器学习工具包。它通过NumPy, SciPy和
Matplotlib等python数值计算的库实现高效的算法应用,并且涵盖了几乎所有主流机器学习算法。
           http://scikit-learn.org/stable/index.html
           在工程应用中,用python手写代码来从头实现一个算法的可能性非常低,这样不仅耗时耗力,还不一定能够写出
构架清晰,稳定性强的模型。更多情况下,是分析采集到的数据,根据数据特征选择适合的算法,在工具包中调用
算法,调整算法的参数,获取需要的信息,从而实现算法效率和效果之间的平衡。而sklearn,正是这样一个可以
帮助我们高效实现算法应用的工具包。
           sklearn有一个完整而丰富的官网,里面讲解了基于sklearn对所有算法的实现和简单应用。然而,这个官网是全英
文的,并且现在没有特别理想的中文接口,市面上也没有针对sklearn非常好的书。因此,这门课的目的就是由简
向繁地向大家解析sklearn的全面应用,帮助大家了解不同的机器学习算法有哪些可调参数,有哪些可用接口,这
些接口和参数对算法来说有什么含义,又会对算法的性能及准确性有什么影响。我们会讲解sklearn中对算法的说
明,调参,属性,接口,以及实例应用。注意,本门课程的讲解不会涉及详细的算法原理,只会专注于算法在
           sklearn中的实现,如果希望详细了解算法的原理,建议阅读下面这本两本书:

决策树原理

1.1 决策树是如何工作
决策树(Decision Tree)是一种非参数的有监督学习方法,它能够从一系列有特征和标签的数据中总结出决策规
则,并用树状图的结构来呈现这些规则,以解决分类和回归问题。决策树算法容易理解,适用各种数据,在解决各
种问题时都有良好表现,尤其是以树模型为核心的各种集成算法,在各个行业和领域都有广泛的应用。
我们来简单了解一下决策树是如何工作的。决策树算法的本质是一种图结构,我们只需要问一系列问题就可以对数
据进行分类了。比如说,根据西瓜的各个特征,通过决策树来判断他们是好瓜坏瓜:

                               

可以看出,在这个决策过程中,我们一直在对记录的特征进行提问。最初的问题所在的地方叫做根节点,在得到结
论前的每一个问题都是中间节点,而得到的每一个结论(动物的类别)都叫做叶子节点。

决策树算法的核心是要解决两个问题:
1)如何从数据表中找出最佳节点和最佳分枝?
2)如何让决策树停止生长,防止过拟合?

 

sklearn中的决策树

模块sklearn.tree

下面开始实战吧

 

一、建立一棵树

1、导入需要的算法库和模块

#预定义
from sklearn import tree               #导入模型
from .datasets import load_wine        #加载红酒数据  共178个样本  代表了红酒的三个档次(分别有59,71,48个样本) 以及与之对应的13维的属性数据 
from sklearn.model_selection import train_test_split#制作数据集和测试集

PS 本实验需要预先安装 我的开发环境为jupyter notebook (环境搭建不懂得留言)

Python 3.7.1(你的版本至少要3.4以上
Scikit-learn 0.20.0 (你的版本至少要0.19
Graphviz 0.8.4 (没有画不出决策树哦,安装代码conda install python-graphviz
Numpy 1.15.3, Pandas 0.23.4, Matplotlib 3.0.1, SciPy 1.1.0

 

2. 探索数据

wine = load_wine()
wine.data.shape#形状 (178,13)
wine.target#(178,)
#如果wine是一张表,应该长这样:
import pandas as pd
pd.concat([pd.DataFrame(wine.data),pd.DataFrame(wine.target)],axis=1)
wine.feature_names
wine.target_names

3. 分训练集和测试集

Xtrain, Xtest, Ytrain, Ytest = train_test_split(wine.data,wine.target,test_size=0.3)#分训练集、测试集  测试集占0.3
Xtrain.shape#训练集形状
Xtest.shape#测试集形状

4. 建立模型

clf = tree.DecisionTreeClassifier(criterion="entropy")# 载入决策树分类模型
clf = clf.fit(Xtrain, Ytrain)# 决策树拟合,得到模型
score = clf.score(Xtest, Ytest) #返回预测的准确度
score

5. 画出一棵树吧

feature_name = ['酒精','苹果酸','灰','灰的碱性','镁','总酚','类黄酮','非黄烷类酚类','花青素','颜色强度','色调','od280/od315稀释葡萄酒','脯氨酸']
import graphviz
dot_data = tree.export_graphviz(clf,feature_names= feature_name,class_names=["琴酒","雪莉","贝尔摩德"],filled=True,rounded=True)
graph = graphviz.Source(dot_data)#画树
graph

      运行以上代码就得到了这样一棵树  要学会利用快捷键  我另外一篇博客有写                

      

6. 探索决策树

#特征重要性
clf.feature_importances_
[*zip(feature_name,clf.feature_importances_)]

输出重要性指数

我们已经在只了解一个参数的情况下,建立了一棵完整的决策树。但是回到步骤4建立模型,score会在某个值附近
波动,引起步骤5中画出来的每一棵树都不一样。它为什么会不稳定呢?如果使用其他数据集,它还会不稳定吗?
我们之前提到过,无论决策树模型如何进化,在分枝上的本质都还是追求某个不纯度相关的指标的优化,而正如我
们提到的,不纯度是基于节点来计算的,也就是说,决策树在建树时,是靠优化节点来追求一棵优化的树,但最优
的节点能够保证最优的树吗?集成算法被用来解决这个问题:sklearn表示,既然一棵树不能保证最优,那就建更
多的不同的树,然后从中取最好的。怎样从一组数据集中建不同的树?在每次分枝时,不从使用全部特征,而是随
机选取一部分特征,从中选取不纯度相关指标最优的作为分枝用的节点。这样,每次生成的树也就不同了。

clf = tree.DecisionTreeClassifier(criterion="entropy",random_state=30)
#可以使用"best"或者"random"。前者在特征的所有划分点中找出最优的划分点。后者是随机的在部分划分点中找局部最优的划分点。

clf = clf.fit(Xtrain, Ytrain)
score = clf.score(Xtest, Ytest) #返回预测的准确度
score

二、调参数  random_state & splitter

random_state用来设置分枝中的随机模式的参数,默认None,在高维度时随机性会表现更明显,低维度的数据
(比如鸢尾花数据集),随机性几乎不会显现。输入任意整数,会一直长出同一棵树,让模型稳定下来。
splitter也是用来控制决策树中的随机选项的,有两种输入值,输入”best",决策树在分枝时虽然随机,但是还是会
优先选择更重要的特征进行分枝(重要性可以通过属性feature_importances_查看),输入“random",决策树在
分枝时会更加随机,树会因为含有更多的不必要信息而更深更大,并因这些不必要信息而降低对训练集的拟合。这
也是防止过拟合的一种方式。当你预测到你的模型会过拟合,用这两个参数来帮助你降低树建成之后过拟合的可能
性。当然,树一旦建成,我们依然是使用剪枝参数来防止过拟合。

clf = tree.DecisionTreeClassifier(criterion="entropy",random_state=30,splitter="random")
clf = clf.fit(Xtrain, Ytrain)
score = clf.score(Xtest, Ytest)
score
import graphviz
dot_data = tree.export_graphviz(clf,feature_names= feature_name,class_names=["琴酒","雪莉","贝尔摩德"],filled=True,rounded=True) 
graph = graphviz.Source(dot_data)
graph

剪枝参数

在不加限制的情况下,一棵决策树会生长到衡量不纯度的指标最优,或者没有更多的特征可用为止。这样的决策树
往往会过拟合,这就是说,它会在训练集上表现很好,在测试集上却表现糟糕。我们收集的样本数据不可能和整体
的状况完全一致,因此当一棵决策树对训练数据有了过于优秀的解释性,它找出的规则必然包含了训练样本中的噪
声,并使它对未知数据的拟合程度不足。

#我们的树对训练集的拟合程度如何?
score_train = clf.score(Xtrain, Ytrain)
score_train

为了让决策树有更好的泛化性,我们要对决策树进行剪枝。剪枝策略对决策树的影响巨大,正确的剪枝策略是优化
决策树算法的核心。sklearn为我们提供了不同的剪枝策略

#带有剪枝参数
clf = tree.DecisionTreeClassifier(criterion="entropy"
                                  ,random_state=30
                                  ,splitter="random"
                                  ,max_depth=3
                                  ,min_samples_leaf=10
                                  ,min_samples_split=10
                                 )
clf = clf.fit(Xtrain, Ytrain)
dot_data = tree.export_graphviz(clf
                                ,feature_names= feature_name
                                ,class_names=["琴酒","雪莉","贝尔摩德"]
                                ,filled=True
                                ,rounded=True
                               ) 
graph = graphviz.Source(dot_data)
graph
clf.score(Xtrain,Ytrain)
clf.score(Xtest,Ytest)

确认最优的剪枝参数
那具体怎么来确定每个参数填写什么值呢?这时候,我们就要使用确定超参数的曲线来进行判断了,继续使用我们
已经训练好的决策树模型clf。超参数的学习曲线,是一条以超参数的取值为横坐标,模型的度量指标为纵坐标的曲
线,它是用来衡量不同超参数取值下模型的表现的线。在我们建好的决策树里,我们的模型度量指标就是score。

import matplotlib.pyplot as plt
test =[]
for i in range(10):
    clf = tree.DecisionTreeClassifier(max_depth=i+1,criterion="entropy",random_state=30,splitter="random")
    clf = clf.fit(Xtrain, Ytrain)
    score = clf.score(Xtest, Ytest)
    test.append(score)
plt.plot(range(1,11),test,color="red",label="max_depth")
plt.legend()
plt.show()

输出

目标权重参数

class_weight & min_weight_fraction_leaf

完成样本标签平衡的参数。样本不平衡是指在一组数据集中,标签的一类天生占有很大的比例。比如说,在银行要
判断“一个办了信用卡的人是否会违约”,就是是vs否(1%:99%)的比例。这种分类状况下,即便模型什么也不
做,全把结果预测成“否”,正确率也能有99%。因此我们要使用class_weight参数对样本标签进行一定的均衡,给
少量的标签更多的权重,让模型更偏向少数类,向捕获少数类的方向建模。该参数默认None,此模式表示自动给
与数据集中的所有标签相同的权重。
有了权重之后,样本量就不再是单纯地记录数目,而是受输入的权重影响了,因此这时候剪枝,就需要搭配min_
weight_fraction_leaf这个基于权重的剪枝参数来使用。另请注意,基于权重的剪枝参数(例如min_weight_
fraction_leaf)将比不知道样本权重的标准(比如min_samples_leaf)更少偏向主导类。如果样本是加权的,则使
用基于权重的预修剪标准来更容易优化树结构,这确保叶节点至少包含样本权重的总和的一小部分。

重要属性和接口

属性是在模型训练之后,能够调用查看的模型的各种性质。对决策树来说,最重要的是feature_importances_,能
够查看各个特征对模型的重要性。
sklearn中许多算法的接口都是相似的,比如说我们之前已经用到的fit和score,几乎对每个算法都可以使用。除了
这两个接口之外,决策树最常用的接口还有apply和predict。apply中输入测试集返回每个测试样本所在的叶子节
点的索引,predict输入测试集返回每个测试样本的标签。返回的内容一目了然并且非常容易,大家感兴趣可以自己
下去试试看。

#apply返回每个测试样本所在的叶子节点的索引
clf.apply(Xtest)
#predict返回每个测试样本的分类/回归结果
clf.predict(Xtest)

至此,我们已经学完了分类树DecisionTreeClassifier和用决策树绘图(export_graphviz)的所有基础。我们讲解了决策树的基本流程,分类树的七个参数,一个属性,四个接口,以及绘图所用的代码。
七个参数:Criterion,两个随机性相关的参数(random_state,splitter),四个剪枝参数(max_depth, ,
min_sample_leaf,max_feature,min_impurity_decrease)
一个属性:feature_importances_
四个接口:fit,score,apply,predict
有了这些知识,基本上分类树的使用大家都能够掌握了,接下来再到实例中去磨练就好。

 


 

 

实例:分类树在合成数集上的表现

我们在红酒数据集上画出了一棵树,并且展示了多个参数会对树形成这样的影响,接下来,我们将在不同结构的数据集上测试一下决策树的效果,让大家更好地理解决策树。

1、导入需要的库

import numpy as np
import matplotlib.pyplot as plt
from matplotlib.colors import ListedColormap
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import make_moons, make_circles, make_classification
from sklearn.tree import DecisionTreeClassifier


2. 生成三种数据集


我们先从sklearn自带的数据库中生成三种类型的数据集:1)月亮型数据,2)环形数据,3)二分型数据

#make_classification库生成随机的二分型数据
X, y = make_classification(n_samples=100, #生成100个样本
             n_features=2,  #包含2个特征,即生成二维数据
             n_redundant=0, #添加冗余特征0个
             n_informative=2, #包含信息的特征是2个
             random_state=1,  #随机模式1
             n_clusters_per_class=1 #每个簇内包含的标签类别有1个
            )
#在这里可以查看一下X和y,其中X是100行带有两个2特征的数据,y是二分类标签
#也可以画出散点图来观察一下X中特征的分布
#plt.scatter(X[:,0],X[:,1])
#从图上可以看出,生成的二分型数据的两个簇离彼此很远,这样不利于我们测试分类器的效果,因此我们使用np生成
随机数组,通过让已经生成的二分型数据点加减0~1之间的随机数,使数据分布变得更散更稀疏
#注意,这个过程只能够运行一次,因为多次运行之后X会变得非常稀疏,两个簇的数据会混合在一起,分类器的效应会
继续下降
rng = np.random.RandomState(2) #生成一种随机模式
X += 2 * rng.uniform(size=X.shape) #加减0~1之间的随机数
linearly_separable = (X, y) #生成了新的X,依然可以画散点图来观察一下特征的分布
#plt.scatter(X[:,0],X[:,1])
#用make_moons创建月亮型数据,make_circles创建环形数据,并将三组数据打包起来放在列表datasets中
datasets = [make_moons(noise=0.3, random_state=0),
      make_circles(noise=0.2, factor=0.5, random_state=1),
      linearly_separable]

画出三种数据集和三棵决策树的分类效应图像

#创建画布,宽高比为6*9
figure = plt.figure(figsize=(6, 9))
#设置用来安排图像显示位置的全局变量i
i = 1
#开始迭代数据,对datasets中的数据进行for循环
for ds_index, ds in enumerate(datasets):
 
  #对X中的数据进行标准化处理,然后分训练集和测试集
  X, y = ds
  X = StandardScaler().fit_transform(X)
  X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.4,
random_state=42)
 
  #找出数据集中两个特征的最大值和最小值,让最大值+0.5,最小值-0.5,创造一个比两个特征的区间本身更大
一点的区间
  x1_min, x1_max = X[:, 0].min() - .5, X[:, 0].max() + .5
  x2_min, x2_max = X[:, 1].min() - .5, X[:, 1].max() + .5
 
  #用特征向量生成网格数据,网格数据,其实就相当于坐标轴上无数个点
  #函数np.arange在给定的两个数之间返回均匀间隔的值,0.2为步长
  #函数meshgrid用以生成网格数据,能够将两个一维数组生成两个二维矩阵。
  #如果第一个数组是narray,维度是n,第二个参数是marray,维度是m。那么生成的第一个二维数组是以
narray为行,m行的矩阵,而第二个二维数组是以marray的转置为列,n列的矩阵
  #生成的网格数据,是用来绘制决策边界的,因为绘制决策边界的函数contourf要求输入的两个特征都必须是二
维的
  array1,array2 = np.meshgrid(np.arange(x1_min, x1_max, 0.2),
            np.arange(x2_min, x2_max, 0.2))
  #接下来生成彩色画布
  #用ListedColormap为画布创建颜色,#FF0000正红,#0000FF正蓝
  cm = plt.cm.RdBu
  cm_bright = ListedColormap(['#FF0000', '#0000FF'])
 
  #在画布上加上一个子图,数据为len(datasets)行,2列,放在位置i上
  ax = plt.subplot(len(datasets), 2, i)
#到这里为止,已经生成了0~1之间的坐标系3个了,接下来为我们的坐标系放上标题
  #我们有三个坐标系,但我们只需要在第一个坐标系上有标题,因此设定if ds_index==0这个条件
  if ds_index == 0:
    ax.set_title("Input data")
 
  #将数据集的分布放到我们的坐标系上
  #先放训练集
  ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train,
       cmap=cm_bright,edgecolors='k')
  #放测试集
  ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test,
       cmap=cm_bright, alpha=0.6,edgecolors='k')
 
  #为图设置坐标轴的最大值和最小值,并设定没有坐标轴
  ax.set_xlim(array1.min(), array1.max())
  ax.set_ylim(array2.min(), array2.max())
  ax.set_xticks(())
  ax.set_yticks(())
 
  #每次循环之后,改变i的取值让图每次位列不同的位置
  i += 1
 
  #至此为止,数据集本身的图像已经布置完毕,运行以上的代码,可以看见三个已经处理好的数据集
 
  #############################从这里开始是决策树模型##########################
 
  #迭代决策树,首先用subplot增加子图,subplot(行,列,索引)这样的结构,并使用索引i定义图的位置
  #在这里,len(datasets)其实就是3,2是两列
  #在函数最开始,我们定义了i=1,并且在上边建立数据集的图像的时候,已经让i+1,所以i在每次循环中的取值
是2,4,6
  ax = plt.subplot(len(datasets),2,i)
 
  #决策树的建模过程:实例化 → fit训练 → score接口得到预测的准确率
  clf = DecisionTreeClassifier(max_depth=5)
  clf.fit(X_train, y_train)
  score = clf.score(X_test, y_test)
 
  #绘制决策边界,为此,我们将为网格中的每个点指定一种颜色[x1_min,x1_max] x [x2_min,x2_max]
  #分类树的接口,predict_proba,返回每一个输入的数据点所对应的标签类概率
  #类概率是数据点所在的叶节点中相同类的样本数量/叶节点中的样本总数量
  #由于决策树在训练的时候导入的训练集X_train里面包含两个特征,所以我们在计算类概率的时候,也必须导入
结构相同的数组,即是说,必须有两个特征
  #ravel()能够将一个多维数组转换成一维数组
  #np.c_是能够将两个数组组合起来的函数
  #在这里,我们先将两个网格数据降维降维成一维数组,再将两个数组链接变成含有两个特征的数据,再带入决策
树模型,生成的Z包含数据的索引和每个样本点对应的类概率,再切片,且出类概率
  Z = clf.predict_proba(np.c_[array1.ravel(),array2.ravel()])[:, 1]
 
  #np.c_[np.array([1,2,3]), np.array([4,5,6])]
 
  #将返回的类概率作为数据,放到contourf里面绘制去绘制轮廓
  Z = Z.reshape(array1.shape)
ax.contourf(array1, array2, Z, cmap=cm, alpha=.8)
 
  #将数据集的分布放到我们的坐标系上
  # 将训练集放到图中去
  ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright,
       edgecolors='k')
  # 将测试集放到图中去
  ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright,
       edgecolors='k', alpha=0.6)
 
  #为图设置坐标轴的最大值和最小值
  ax.set_xlim(array1.min(), array1.max())
  ax.set_ylim(array2.min(), array2.max())
  #设定坐标轴不显示标尺也不显示数字
  ax.set_xticks(())
  ax.set_yticks(())
 
  #我们有三个坐标系,但我们只需要在第一个坐标系上有标题,因此设定if ds_index==0这个条件
  if ds_index == 0:
    ax.set_title("Decision Tree")
 
  #写在右下角的数字  
  ax.text(array1.max() - .3, array2.min() + .3, ('{:.1f}%'.format(score*100)),
      size=15, horizontalalignment='right')
 
  #让i继续加一
  i += 1
plt.tight_layout()
plt.show()

从图上来看,每一条线都是决策树在二维平面上画出的一条决策边界,每当决策树分枝一次,就有一条线出现。当
数据的维度更高的时候,这条决策边界就会由线变成面,甚至变成我们想象不出的多维图形。
同时,很容易看得出,分类树天生不擅长环形数据。每个模型都有自己的决策上限,所以一个怎样调整都无法提升
表现的可能性也是有的。当一个模型怎么调整都不行的时候,我们可以选择换其他的模型使用,不要在一棵树上吊
死。顺便一说,最擅长月亮型数据的是最近邻算法,RBF支持向量机和高斯过程;最擅长环形数据的是最近邻算法
和高斯过程;最擅长对半分的数据的是朴素贝叶斯,神经网络和随机森林。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/yxc9681/article/details/88285061

智能推荐

ES6_等待戈多的莱昂纳多的博客-程序员资料

var 1. 可以重复声明 2. 无法限制修改 3. 没有块级作用域let 不能重复声明 变量-可以修改,块级作用域const 不能重复声明,常量-不能修改,块级作用域

动手学深度学习 图像分类数据集(一) Fashion-MNIST的获取与查看_Joker-Tong的博客-程序员资料_show_fashion_mnist

动手学深度学习 图像分类数据集(一) Fashion-MNIST的获取与查看Fashion-MNIST在书中多次使用,本文的内容是讲解如何获取并查看此数据集1.下载数据集使用torchvision.datasets来下载数据集root 用来指定下载后保存的位置(如果已经存在则不会下载)download表示是否要下载train 表示获取训练数据集或测试数据集transform代表对图像的操作, 这里仅仅使用了ToTensor()把图像数据转换为Tensor类型其格式为(C∗H∗WC*H*_1671465600

CountDownLatch 的 .await() 的线程阻塞 和countDown() 计时唤醒_清风羽的博客-程序员资料_countdownlatch.await

CountDownLatch是一种java.util.concurrent包下一个同步工具类,它允许一个或多个线程等待直到在其他线程中一组操作执行完成。CountDownLatch的用法非常简单,下面的例子也是我在网上看到的,十分贴切,这里就贴出来public class Test { public static void main(String[] args) { ...

一个Google Play的开发者,要了解的一些小事_晓声的博客-程序员资料

Google Play ** 讲个笑话: 前段时间服务端的童鞋说了几句,听说你们Android开发分为Android和中国Android。**简介和使用方式 Google Play前称为Android Market,是一个由Google为Android设备( Android现为全球排名居首的智能手机操作系统,用于三星、HTC、联想、华为、中兴、酷派等公司生产的智能手机。)开发

fatal error: opencv2\highgui\highgui.hpp: No such file or directory_Dillon2015的博客-程序员资料_fatal error: opencv2/highgui.hpp: no such file or

再Linux上编译opencv代码时报错fatal error: opencv2\highgui\highgui.hpp: No such file or directory但是同样的代码再Windows上能正确编译运行。而且Linux上opencv安装没有问题,版本也没有问题,相应环境变量也都设置了,highgui也存在。找了好久试了很多方法都没有解决这个问题,后来终于发现错误,是Li...

【操作系统】Cache与主存之间的全相联映射,直接映射和组相联映射的区别_小辣抓的博客-程序员资料_组相联映射

Cache与主存之间的全相联映射,直接映射和组相联映射的区别1.高速缓冲存储器的功能、结构与工作原理  高速缓冲存储器是存在于主存与CPU之间的一级存储器, 由静态存储芯片(SRAM)组成,容量比较小但速度比主存高得多,接近于CPU的速度。 Cache的功能是用来存放那些近期需要运行的指令与数据。目的是提高CPU对存储器的访问速度。为此需要解决2个技术问题:一是主存地址与缓存地址的映象及转换; 二是

随便推点

Java字符串处理之返回指定字符串下标(indexOf)_Claroja的博客-程序员资料_做一个字符串搜索函数,从一字符串里面搜索字符,返回字符下标的位置,用数组实现

Java中使用indexOf或lastIndexOf方法来获得指定字符在字符串里第一次出现的下标。   1.indexOf   public int indexOf(String str, int fromIndex)查找String str在字符串里的第一次出现的下标,从int fromIndex开始,返回值是整型。String str = "wanag";str.indexOf("a"

关于快速报错fail-fast想说的之fail-fast的实现原理(一)_fan2012huan的博客-程序员资料_fail-forward-fast

最近在翻译HashMap的源码注释,看到了fail-fast。之前在看第四版《Thinking in java》的第17章容器深入研究 17.11.3中的“快速报错”时就有些迷迷糊糊,今天查了下资料,总结总结。注意,本文的讨论都是基于JDK 1.8的。 结论快速报错,是指当有其他线程对一个容器(如ArrayList,HashMap)进行了结构性修改,另外一个线程在使用iterator进行迭代,那么

【转】c嵌入汇编_Elta的博客-程序员资料_eclipse中怎么c中嵌入汇编这样

由于C语言在定时方面的缺陷,在某些场合下,C程序中需要嵌入汇编代码,以弥补C的缺陷。通常,在C语言程序中嵌入汇编的方法,无外乎两种   · 在C程序中填入#asm和#endasm的编译命令,在之中填入汇编代码· 编写汇编函数,通过链接定位器和特殊的编译方式链接方式加入到所有程序的目标代码中但这两种方法都存在实现困难的问题,对刚起步经验不足的程序员来说,基本上很难弄懂和编译成功。

mac下用brew安装的mysql配置文件路径_yahaha我去的博客-程序员资料

【MySQL】Mac 上使用 brew 安装的 mysql 配置文件位置在mac 上使用 brew 安装 mysql 后,发现 /etc/my.cnf 并不存在。于是使用命令查找 MySQL 的配置启动文件列表:$ mysqld --help --verbose | less...Default options are read from the following files...

js: 移动端预览pdf_小强有个dream的博客-程序员资料_js移动端预览pdf

移动端引入pdf加载空白(webview进行pdf预览)一:后端插件https://jdab.zjhzyx.com/pdfjs/web/viewer.html?file=https://jdab.zjhzyx.com/jdabrestest/userfiles/app/course/pdf/20200331/81AD40F9-67C1-427A-B596-A3767D39E1A0.pdf二:前端实现1.pdf只能显示pdf查看器,无法显示psf内容(本地pdf都无法打开) 官网稳定版下载需要fan

A required class was missing while executing org.apache.maven.plugins:maven-war-plugin:2.1.1:war_weixin_33889245的博客-程序员资料

完美解决方案:http://stackoverflow.com/questions/18442753/a-required-class-was-missing-while-executing-org-apache-maven-pluginsmaven-warthis happened to me too after adding the version tag, that was mi...

推荐文章

热门文章

相关标签