【OpenCV3.3】SVM与字符分类示例

xiaoxiao2021-02-28  88

        SVM,全称Support Vector Machine,即支持向量机,是机器学习中常用的分类器(同样支持向量回归),属监督式学习的一种。

        在二值分类中,SVM通过寻找一个 决策最优分类超平面 来尽可能地将两类样本分开(最大分类间隔)并作为分类的判据,以期得到较强的泛化能力,我们所指的训练(train)主要就是寻找这个超平面。如果你看过相关推导,会发现原本复杂的问题被一步步等价,引入拉格朗日继而巧妙的转到凸优化及对偶问题的求解上,数学的力量令人叹为观止。

        一般而言SVM是二值分类器,但是我们可以通过增加多个分类器来完成N分类,自然如何组织这些分类器也是一个优化问题。目前存在的多类判别方法有1-V-R、1-V-1、有向无环图(DAG-SVMS)、决策树方法、纠错输出编码法(ECOC)等。

        OpenCV的SVM实现基于LIBSVM v2.6,而目前 LIBSVM 的最新版本是3.22,所以如果你深度依赖于SVM,建议使用LIBSVM,相比OpenCV其无论从更新频度还是支持范围都有较大优势,值得注意的是两者还是有些细微差别,不能无缝迁移。

        下面是一个SVM字符分类示例:

#include "stdafx.h" #define DATA_DIR "D:\\OpenCV\\bin\\toy_data\\" //------------------------------------------------------------------------- INT WINAPI WinMain(_In_ HINSTANCE, _In_opt_ HINSTANCE, _In_ LPSTR, _In_ INT) { cv::ipp::setUseIPP(true); // 如果SVM模型数据svm.txt存在,则从文件读取;否则加载训练数据进行训练 cv::Ptr<cv::ml::SVM> &&svm = cv::ml::SVM::create(); cv::FileStorage cf(DATA_DIR "svm.txt", cv::FileStorage::READ); if (cf.isOpened()) { // svm = svm->load(DIR "svm.txt"); svm->read(cf.getFirstTopLevelNode()); cf.release(); } else { // 加载训练数据,DATA_DIR目录下所有的 [0-9][a-z].png cv::Mat sample; cv::Mat label(cv::Size(0, 0), CV_32SC1); // 注意这里和2.x区别,3.x必须使用CV_32S,原因后面会说 char filename[] = { DATA_DIR "$$.png" }; char *varchar = strchr(filename, '$'); for (char num = '0'; num <= '9'; ++num) { varchar[0] = num; for (char alpha = 'a'; alpha < 'z'; ++alpha) { varchar[1] = alpha; cv::Mat &&img = cv::imread(filename, cv::IMREAD_GRAYSCALE); if (img.dims > 0) { // 归一化, 一般认为能加快参数优化时的收敛速度、平衡模型权重等 cv::normalize(img, img, 1., 0., cv::NormTypes::NORM_MINMAX, CV_32FC1); // 但如果你的数据量级本身相差不大,也可以不归一化直接convertTo即可 //img.convertTo(img, CV_32FC1); sample.push_back(img.reshape(0, 1)); label.push_back<int>(num); // 注意push_back有模版重载,可能意外改变Mat类型 } //if } //for } //for cv::Ptr<cv::ml::TrainData> &&trainDataSet = cv::ml::TrainData::create(sample, cv::ml::ROW_SAMPLE, label); // 设置参数,仅作为示例 // svm->setType(cv::ml::SVM::C_SVC); // svm->setKernel(cv::ml::SVM::LINEAR); // svm->setC(0.01); // svm->setTermCriteria(cv::TermCriteria(cv::TermCriteria::MAX_ITER + cv::TermCriteria::EPS, 1000, FLT_EPSILON)); // svm->train(trainDataSet); // 有时候会出现过拟合、欠拟合现象,排除训练数据影响的情况下一般就是参数问题了,可以使用trainAuto来进行参数优化 svm->trainAuto(trainDataSet); // 如果想让部分参数不进行优化,可以使用*cv::ml::ParamGrid::create(0, 0, 0)代替相应Grid默认值,如下不对C进行优化: //svm->trainAuto(trainDataSet, 10, *cv::ml::ParamGrid::create(0, 0, 0)); svm->save(DATA_DIR "svm.txt"); } //if cv::Mat &&tk = cv::imread(DATA_DIR "9b.png", cv::IMREAD_GRAYSCALE); cv::normalize(tk, tk, 1., 0., cv::NormTypes::NORM_MINMAX, CV_32FC1); // tk.convertTo(tk, CV_32FC1); float r = svm->predict(tk.reshape(0, 1)); char c[] = { static_cast<char>(r), 0 }; OutputDebugStringA(c); return 0; }

        上述程序运行后会在IDE调试窗口输出9。我的部分训练数据如下(来自MSPAINT,每个样本都是8x8的二值图像):

        代码中提到标签类型在3.x版本应该使用CV_32S(OpenCV 2.x版本使用CV_32F),否则会产生错误,文档没有提及原因,但看了模块源码,似乎是有意的`bug`:当模型使用C_SVC或NU_SVC,并且标签、样本数量一致时 ,label使用CV_32FC1会出现错误,原因是C_SVC会使用TrainData::getTrainNormCatResponses,而normCatResponses是空的(未被初始化),因为\modules\ml\src\data.cpp第320行

if( noutputvars == 1 ) varType.at<uchar>(ninputvars) = (uchar)(responses.type() < CV_32F ? VAR_CATEGORICAL : VAR_ORDERED);        此时CV_32F会导致打上VAR_ORDERED标志,从而在第406行跳过了preprocessCategorical对normCatResponses的处理 if( noutputvars > 0 && varType.at<uchar>(ninputvars) == VAR_CATEGORICAL ) { preprocessCategorical(responses, &normCatResponses, labels, &counters, sortbuf); Mat(labels).copyTo(classLabels); Mat(counters).copyTo(classCounters); }        从而导致断言data != NULL失败。

转载请注明原文地址: https://www.6miu.com/read-68132.html

最新回复(0)