从Kaggle上Titanic比赛引出的各类分类器模型基本方法(未完)

xiaoxiao2021-02-28  42

在Titanic生存预测的例子中,在模型融合之前运用到了多个基分类器模型,对特征进行了筛选。这里大概用到了 RandomForest、AdaBoost、ExtraTrees、GBDT、DecisionTree、KNN、SVM 等7个模型,而这些基本模型的运用也是机器学习实战(sklearn库)中最基本的最核心的地方,因此想记录一下各个模型的的一些基本方法,而以下代码都用了GridSearchCV网格搜索进行自动调参。 首先给出Titanic实战中的模型运用和结果。 以下代码就是让各个分类器分别对数据进行特征筛选和分数预测。

def get_top_n_features(titanic_train_data_X, titanic_train_data_Y, top_n_features): # random forest rf_est = RandomForestClassifier(random_state=0) rf_param_grid = {'n_estimators': [500], 'min_samples_split': [2, 3], 'max_depth': [20]} rf_grid = model_selection.GridSearchCV(rf_est, rf_param_grid, n_jobs=25, cv=10, verbose=1) rf_grid.fit(titanic_train_data_X, titanic_train_data_Y) print('Top N Features Best RF Params:' + str(rf_grid.best_params_)) print('Top N Features Best RF Score:' + str(rf_grid.best_score_)) print('Top N Features RF Train Score:' + str(rf_grid.score(titanic_train_data_X, titanic_train_data_Y))) feature_imp_sorted_rf = pd.DataFrame({'feature': list(titanic_train_data_X), 'importance': rf_grid.best_estimator_.feature_importances_}).sort_values('importance', ascending=False) features_top_n_rf = feature_imp_sorted_rf.head(top_n_features)['feature'] print('Sample 10 Features from RF Classifier') print(str(features_top_n_rf[:10])) # AdaBoost ada_est =AdaBoostClassifier(random_state=0) ada_param_grid = {'n_estimators': [500], 'learning_rate': [0.01, 0.1]} ada_grid = model_selection.GridSearchCV(ada_est, ada_param_grid, n_jobs=25, cv=10, verbose=1) ada_grid.fit(titanic_train_data_X, titanic_train_data_Y) print('Top N Features Best Ada Params:' + str(ada_grid.best_params_)) print('Top N Features Best Ada Score:' + str(ada_grid.best_score_)) print('Top N Features Ada Train Score:' + str(ada_grid.score(titanic_train_data_X, titanic_train_data_Y))) feature_imp_sorted_ada = pd.DataFrame({'feature': list(titanic_train_data_X), 'importance': ada_grid.best_estimator_.feature_importances_}).sort_values('importance', ascending=False) features_top_n_ada = feature_imp_sorted_ada.head(top_n_features)['feature'] print('Sample 10 Feature from Ada Classifier:') print(str(features_top_n_ada[:10])) # ExtraTree et_est = ExtraTreesClassifier(random_state=0) et_param_grid = {'n_estimators': [500], 'min_samples_split': [3, 4], 'max_depth': [20]} et_grid = model_selection.GridSearchCV(et_est, et_param_grid, n_jobs=25, cv=10, verbose=1) et_grid.fit(titanic_train_data_X, titanic_train_data_Y) print('Top N Features Best ET Params:' + str(et_grid.best_params_)) print('Top N Features Best ET Score:' + str(et_grid.best_score_)) print('Top N Features ET Train Score:' + str(et_grid.score(titanic_train_data_X, titanic_train_data_Y))) feature_imp_sorted_et = pd.DataFrame({'feature': list(titanic_train_data_X), 'importance': et_grid.best_estimator_.feature_importances_}).sort_values('importance', ascending=False) features_top_n_et = feature_imp_sorted_et.head(top_n_features)['feature'] print('Sample 10 Features from ET Classifier:') print(str(features_top_n_et[:10])) # GradientBoosting gb_est =GradientBoostingClassifier(random_state=0) gb_param_grid = {'n_estimators': [500], 'learning_rate': [0.01, 0.1], 'max_depth': [20]} gb_grid = model_selection.GridSearchCV(gb_est, gb_param_grid, n_jobs=25, cv=10, verbose=1) gb_grid.fit(titanic_train_data_X, titanic_train_data_Y) print('Top N Features Best GB Params:' + str(gb_grid.best_params_)) print('Top N Features Best GB Score:' + str(gb_grid.best_score_)) print('Top N Features GB Train Score:' + str(gb_grid.score(titanic_train_data_X, titanic_train_data_Y))) feature_imp_sorted_gb = pd.DataFrame({'feature': list(titanic_train_data_X), 'importance': gb_grid.best_estimator_.feature_importances_}).sort_values('importance', ascending=False) features_top_n_gb = feature_imp_sorted_gb.head(top_n_features)['feature'] print('Sample 10 Feature from GB Classifier:') print(str(features_top_n_gb[:10])) # DecisionTree dt_est = DecisionTreeClassifier(random_state=0) dt_param_grid = {'min_samples_split': [2, 4], 'max_depth': [20]} dt_grid = model_selection.GridSearchCV(dt_est, dt_param_grid, n_jobs=25, cv=10, verbose=1) dt_grid.fit(titanic_train_data_X, titanic_train_data_Y) print('Top N Features Best DT Params:' + str(dt_grid.best_params_)) print('Top N Features Best DT Score:' + str(dt_grid.best_score_)) print('Top N Features DT Train Score:' + str(dt_grid.score(titanic_train_data_X, titanic_train_data_Y))) feature_imp_sorted_dt = pd.DataFrame({'feature': list(titanic_train_data_X), 'importance': dt_grid.best_estimator_.feature_importances_}).sort_values('importance', ascending=False) features_top_n_dt = feature_imp_sorted_dt.head(top_n_features)['feature'] print('Sample 10 Features from DT Classifier:') print(str(features_top_n_dt[:10])) # merge the three models features_top_n = pd.concat([features_top_n_rf, features_top_n_ada, features_top_n_et, features_top_n_gb, features_top_n_dt], ignore_index=True).drop_duplicates() features_importance = pd.concat([feature_imp_sorted_rf, feature_imp_sorted_ada, feature_imp_sorted_et, feature_imp_sorted_gb, feature_imp_sorted_dt],ignore_index=True) return features_top_n , features_importance

这是各分类器模型的预测和特征提取结果,由于在做特征工程的过程中,产生大量的特征,且特征与特征之间存在一定的相关性,太多的特征一方面影响模型预测的速度,另一方面会造成过拟合的问题,因此这里是筛选出前n个特征。 Fitting 10 folds for each of 2 candidates, totalling 20 fits [Parallel(n_jobs=25)]: Done 13 out of 20 | elapsed: 18.9s remaining: 10.2s [Parallel(n_jobs=25)]: Done 20 out of 20 | elapsed: 19.0s finished Top N Features Best RF Params:{'max_depth': 20, 'min_samples_split': 3, 'n_estimators': 500} Top N Features Best RF Score:0.8271604938271605 Top N Features RF Train Score:0.9820426487093153 Sample 10 Features from RF Classifier 0 Age 15 Name_length 2 Fare 9 Title_0 7 Sex_0 8 Sex_1 27 Family_Size 3 Pclass 31 Ticket_Letter 11 Title_2 Name: feature, dtype: object Fitting 10 folds for each of 2 candidates, totalling 20 fits [Parallel(n_jobs=25)]: Done 13 out of 20 | elapsed: 18.5s remaining: 9.9s [Parallel(n_jobs=25)]: Done 20 out of 20 | elapsed: 18.6s finished Top N Features Best Ada Params:{'learning_rate': 0.01, 'n_estimators': 500} Top N Features Best Ada Score:0.8148148148148148 Top N Features Ada Train Score:0.8215488215488216 Sample 10 Feature from Ada Classifier: 9 Title_0 2 Fare 27 Family_Size 28 Family_Size_Category_0 7 Sex_0 3 Pclass 1 Cabin 8 Sex_1 0 Age 15 Name_length Name: feature, dtype: object Fitting 10 folds for each of 2 candidates, totalling 20 fits [Parallel(n_jobs=25)]: Done 13 out of 20 | elapsed: 27.9s remaining: 15.0s [Parallel(n_jobs=25)]: Done 20 out of 20 | elapsed: 28.3s finished Top N Features Best ET Params:{'max_depth': 20, 'min_samples_split': 4, 'n_estimators': 500} Top N Features Best ET Score:0.8226711560044894 Top N Features ET Train Score:0.9730639730639731 Sample 10 Features from ET Classifier: 9 Title_0 7 Sex_0 8 Sex_1 15 Name_length 0 Age 2 Fare 1 Cabin 31 Ticket_Letter 3 Pclass 10 Title_1 Name: feature, dtype: object Fitting 10 folds for each of 2 candidates, totalling 20 fits [Parallel(n_jobs=25)]: Done 13 out of 20 | elapsed: 36.8s remaining: 19.8s [Parallel(n_jobs=25)]: Done 20 out of 20 | elapsed: 37.5s finished Top N Features Best GB Params:{'learning_rate': 0.01, 'max_depth': 20, 'n_estimators': 500} Top N Features Best GB Score:0.7833894500561167 Top N Features GB Train Score:1.0 Sample 10 Feature from GB Classifier: 9 Title_0 0 Age 2 Fare 15 Name_length 27 Family_Size 28 Family_Size_Category_0 14 Title_5 3 Pclass 26 Pclass_5 31 Ticket_Letter Name: feature, dtype: object Fitting 10 folds for each of 2 candidates, totalling 20 fits [Parallel(n_jobs=25)]: Done 13 out of 20 | elapsed: 16.1s remaining: 8.6s [Parallel(n_jobs=25)]: Done 20 out of 20 | elapsed: 16.3s finished Top N Features Best DT Params:{'max_depth': 20, 'min_samples_split': 4} Top N Features Best DT Score:0.7901234567901234 Top N Features DT Train Score:0.9663299663299664 Sample 10 Features from DT Classifier: 9 Title_0 0 Age 2 Fare 15 Name_length 27 Family_Size 14 Title_5 26 Pclass_5 3 Pclass 31 Ticket_Letter 29 Family_Size_Category_1 Name: feature, dtype: object

而本文针对上面的几个模型方法,将其一一介绍记录,并不针对其数学理论(西瓜书上都有),仅仅对于sklearn库中的用法进行记录。 首先是网格计算的常用方法: grid.fit():运行网格搜索 grid_scores_:给出不同参数情况下的评价结果 best_params_:描述了已取得最佳结果的参数的组合 best_score_:成员提供优化过程期间观察到的最好的评分 其中参数有:

n_estimators:也就是弱学习器的最大迭代次数,或者说最大的弱学习器的个数默认是10。一般来说n_estimators太小,容易欠拟合,n_estimators太大,又容易过拟合,一般选择一个适中的数值。Random Forest来说,增加“子模型数”(n_estimators)可以明显降低整体模型的方差,且不会对子模型的偏差和方差有任何影响。模型的准确度会随着“子模型数”的增加而提高,由于减少的是整体模型方差公式的第二项,故准确度的提高有一个上限。在实际应用中,可以以10为单位,考察取值范围在1至201的调参情况。 param_grid:值为字典或者列表,即需要最优化的参数的取值,param_grid =param_test1,param_test1 = {'n_estimators':range(10,71,10)}。 scoring :准确度评价标准,默认None,这时需要使用score函数;或者如scoring='roc_auc',根据所选模型不同,评价准则不同。字符串(函数名),或是可调用对象,需要其函数签名形如:scorer(estimator, X, y);如果是None,则使用estimator的误差估计函数。 cv :交叉验证参数,默认None,使用三折交叉验证。指定fold数量,默认为3,也可以是yield训练/测试数据的生成器。refit :默认为True,程序将会以交叉验证训练集得到的最佳参数,重新对所有可用的训练集与开发集进行,作为最终用于性能评估的最佳模型参数。即在搜索参数结束后,用最佳参数结果再次fit一遍全部数据集。iid:默认True,为True时,默认为各个样本fold概率分布一致,误差估计为所有样本之和,而非各个fold的平均。verbose:日志冗长度,int:冗长度,0:不输出训练过程,1:偶尔输出,>1:对每个子模型都输出。n_jobs: 并行数,int:个数,-1:跟CPU核数一致, 1:默认值。pre_dispatch:指定总共分发的并行任务数。当n_jobs大于1时,数据将在每个运行点进行复制,这可能导致OOM,而设置pre_dispatch参数,则可以预先划分总共的job数量,使数据最多被复制pre_dispatch次

一、Randomforest(随机森林) max_features: RF划分时考虑的最大特征数。可以使用很多种类型的值,默认是"None",意味着划分时考虑所有的特征数;如果是"log2"意味着划分时最多考虑log2N个特征;如果是"sqrt"或者"auto"意味着划分时最多考虑N−−√N个特征。如果是整数,代表考虑的特征绝对数。如果是浮点数,代表考虑特征百分比,即考虑(百分比xN)取整后的特征数,其中N为样本总特征数。一般来说,如果样本特征数不多,比如小于50,我们用默认的"None"就可以了如果特征数非常多,我们可以灵活使用刚才描述的其他取值来控制划分时考虑的最大特征数,以控制决策树的生成时间 max_depth:决策树最大深度。默认为"None",决策树在建立子树的时候不会限制子树的深度这样建树时,会使每一个叶节点只有一个类别,或是达到min_samples_split。一般来说,数据少或者特征少的时候可以不管这个值。如果模型样本量多,特征也多的情况下,推荐限制这个最大深度,具体的取值取决于数据的分布。常用的可以取值10-100之间。 min_samples_split:内部节点再划分所需最小样本数,默认2。这个值限制了子树继续划分的条件,如果某节点的样本数少于min_samples_split,则不会继续再尝试选择最优特征来进行划分默认是2.如果样本量不大,不需要管这个值。如果样本量数量级非常大,则推荐增大这个值。 min_samples_leaf:叶子节点最少样本数。这个值限制了叶子节点最少的样本数,如果某叶子节点数目小于样本数,则会和兄弟节点一起被剪枝默认是1,可以输入最少的样本数的整数,或者最少样本数占样本总数的百分比。如果样本量不大,不需要管这个值。如果样本量数量级非常大,则推荐增大这个值。 min_weight_fraction_leaf:叶子节点最小的样本权重和。这个值限制了叶子节点所有样本权重和的最小值,如果小于这个值,则会和兄弟节点一起被剪枝默认是0,就是不考虑权重问题。一般来说,如果我们有较多样本有缺失值,或者分类树样本的分布类别偏差很大,就会引入样本权重,这时我们就要注意这个值了 max_leaf_nodes:最大叶子节点数。通过限制最大叶子节点数,可以防止过拟合,默认是"None”,即不限制最大的叶子节点数。如果加了限制,算法会建立在最大叶子节点数内最优的决策树。如果特征不多,可以不考虑这个值,但是如果特征分成多的话,可以加以限制,具体的值可以通过交叉验证得到。 min_impurity_split:节点划分最小不纯度。这个值限制了决策树的增长,如果某节点的不纯度(基于基尼系数,均方差)小于这个阈值,则该节点不再生成子节点,即为叶子节点一般不推荐改动默认值1e-7 上面决策树参数中最重要的包括最大特征数max_features最大深度max_depth内部节点再划分所需最小样本数min_samples_split和叶子节点最少样本数min_samples_leaf

转载请注明原文地址: https://www.6miu.com/read-2800175.html

最新回复(0)