如何使用Opencv对图像进行特征提取颜色特征提取

&nbsp>&nbsp
&nbsp>&nbsp
&nbsp>&nbsp
用Python和OpenCV提取颜色直方图特征
摘要:用OpenCV中自带的cv2.calHist()函数求图像的颜色直方图特征importcv2importnumpyimage=cv2.imread(&D:/lena.jpg&,0)hist=cv2.calcHist([image],[0],None,[256],[0.0,255.0])上面程序是以灰度图的方式计算颜色直方图特征,cv2.calcHist()函数的参数第一个参数[image],必须带[],是读入后的图像第二个参数[0],必须带[],指定通道,
用OpenCV中自带的cv2.calHist()函数求图像的颜色直方图特征
import cv2 import numpy image = cv2.imread(&D:/lena.jpg&, 0) hist = cv2.calcHist([image], [0], None, [256], [0.0,255.0])
上面程序是以灰度图的方式计算颜色直方图特征,cv2.calcHist()函数的参数
第一个参数[image],必须带[], 是读入后的图像
第二个参数[0],必须带[],指定通道,若为灰度图则为[0],若彩色图,则[0]、[1]、[2]分别对应于B、G、R通道
第三个参数是掩膜Mask,指定ROI区域,若对整张图像取特征,则置为None
第四个参数是bins的个数,必须带[]
第五个参数是像素值范围
来看一下hist的内容:
&&& hist array([[ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 1.], [ 0.], [ 0.], [ 0.], [ 1.], [ 2.], [ 5.], [ 8.], [ 1.], [ 2.], [ 5.], [ 8.], [ 1.], [ 1.], [ 2.], [ 2.], [ 3.], [ 4.], [ 5.], [ 6.], [ 7.], [ 8.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 9.], [ 9.], [ 9.], [ 8.], [ 8.], [ 8.], [ 7.], [ 8.], [ 8.], [ 8.], [ 7.], [ 8.], [ 8.], [ 8.], [ 8.], [ 8.], [ 9.], [ 8.], [ 9.], [ 9.], [ 8.], [ 9.], [ 9.], [ 9.], [ 9.], [ 9.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 2.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 1.], [ 1.], [ 1.], [ 1.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 2.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 1.], [ 9.], [ 8.], [ 7.], [ 6.], [ 6.], [ 6.], [ 5.], [ 6.], [ 6.], [ 7.], [ 7.], [ 7.], [ 8.], [ 8.], [ 9.], [ 9.], [ 9.], [ 8.], [ 8.], [ 8.], [ 8.], [ 9.], [ 8.], [ 9.], [ 9.], [ 9.], [ 9.], [ 1.], [ 1.], [ 1.], [ 9.], [ 9.], [ 1.], [ 8.], [ 7.], [ 5.], [ 4.], [ 3.], [ 3.], [ 3.], [ 2.], [ 2.], [ 2.], [ 1.], [ 1.], [ 1.], [ 7.], [ 6.], [ 3.], [ 3.], [ 2.], [ 1.], [ 1.], [ 9.], [ 3.], [ 4.], [ 1.], [ 2.], [ 0.], [ 0.], [ 0.], [ 1.], [ 0.], [ 0.], [ 1.], [ 0.], [ 1.], [ 0.], [ 1.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.], [ 0.]], dtype=float32) &&&
以上是的内容,更多
的内容,请您使用右上方搜索功能获取相关信息。
若你要投稿、删除文章请联系邮箱:zixun-group@service.aliyun.com,工作人员会在五个工作日内给你回复。
云服务器 ECS
可弹性伸缩、安全稳定、简单易用
&40.8元/月起
预测未发生的攻击
&24元/月起
为您提供0门槛上云实践机会
你可能还喜欢
你可能感兴趣
阿里云教程中心为您免费提供
用Python和OpenCV提取颜色直方图特征相关信息,包括
的信息,所有用Python和OpenCV提取颜色直方图特征相关内容均不代表阿里云的意见!投稿删除文章请联系邮箱:zixun-group@service.aliyun.com,工作人员会在五个工作日内答复
售前咨询热线
支持与服务
资源和社区
关注阿里云
InternationalOpenCV成长之路(9):特征点检测与图像匹配 - 文章 - 伯乐在线
& OpenCV成长之路(9):特征点检测与图像匹配
特征点又称兴趣点、关键点,它是在图像中突出且具有代表意义的一些点,通过这些点我们可以用来识别图像、进行图像配准、进行3D重建等。本文主要介绍OpenCV中几种定位与表示关键点的函数。
一、Harris角点
角点是图像中最基本的一种关键点,它是由图像中一些几何结构的关节点构成,很多都是线条之间产生的交点。Harris角点是一类比较经典的角点类型,它的基本原理是计算图像中每点与周围点变化率的平均值。
其中I(x+u,y+u)代表了点(x,y)邻域点的灰度值。通过变换可以将上式变化为一个协方差矩阵求特征值的问题(2),具体数学原理本文不过多描述。
OpenCV的Hairrs角点检测的函数为cornerHairrs(),但是它的输出是一幅浮点值图像,浮点值越高,表明越可能是特征角点,我们需要对图像进行阈值化。我们使用一张建筑图像来显示:
int main()
Mat image=imread("../buliding.png");
cvtColor(image,gray,CV_BGR2GRAY);
Mat cornerS
cornerHarris(gray,cornerStrength,3,3,0.01);
threshold(cornerStrength,cornerStrength,0.001,255,THRESH_BINARY);
1234567891011
int main(){&&&&Mat image=imread("../buliding.png");&&&&Mat gray;&&&&cvtColor(image,gray,CV_BGR2GRAY);&&&&&Mat cornerStrength;&&&&cornerHarris(gray,cornerStrength,3,3,0.01);&&&&threshold(cornerStrength,cornerStrength,0.001,255,THRESH_BINARY);&&&&return 0;}
首先我们来说明一下cornerHairrs()这个函数参数的意思:
前2参数是输入与输出,输入是一个灰度图像,输出是一个浮点图像,第三个参数指定角点分析的邻域,第4个参数实际上在角点求取过程中计算梯度图像的核窗口大小,第5个参数是它原理公式(2)中的一个系数。
从上面的例子的结果我们可以看到,有很多角点都是粘连在一起的,我们下面通过加入非极大值抑制来进一步去除一些粘在一起的角点。
非极大值抑制原理是,在一个窗口内,如果有多个角点则用值最大的那个角点,其他的角点都删除,窗口大小这里我们用3*3,程序中通过图像的膨胀运算来达到检测极大值的目的,因为默认参数的膨胀运算就是用窗口内的最大值替代当前的灰度值。程序的最后使用了一个画角点的函数将角点显示在图像中,这个函数与本系列第5篇中画角点的函数是一致的。
int main()
Mat image=imread("../buliding.png");
cvtColor(image,gray,CV_BGR2GRAY);
Mat cornerS
cornerHarris(gray,cornerStrength,3,3,0.01);
double maxS
double minS
// 找到图像中的最大、最小值
minMaxLoc(cornerStrength,&minStrength,&maxStrength);
// 膨胀图像,最找出图像中全部的局部最大值点
dilate(cornerStrength,dilated,Mat());
// compare是一个逻辑比较函数,返回两幅图像中对应点相同的二值图像
compare(cornerStrength,dilated,locaMax,CMP_EQ);
Mat cornerM
double qualityLevel=0.01;
double th=qualityLevel*maxS // 阈值计算
threshold(cornerStrength,cornerMap,th,255,THRESH_BINARY);
cornerMap.convertTo(cornerMap,CV_8U);
// 逐点的位运算
bitwise_and(cornerMap,locaMax,cornerMap);
drawCornerOnImage(image,cornerMap);
namedWindow("result");
imshow("result",image);
waitKey();
void drawCornerOnImage(Mat& image,const Mat&binary)
Mat_&uchar&::const_iterator it=binary.begin&uchar&();
Mat_&uchar&::const_iterator itd=binary.end&uchar&();
for(int i=0;it!=it++,i++)
circle(image,Point(i%image.cols,i/image.cols),3,Scalar(0,255,0),1);
12345678910111213141516171819202122232425262728293031323334353637383940414243444546
int main(){&&&&Mat image=imread("../buliding.png");&&&&Mat gray;&&&&cvtColor(image,gray,CV_BGR2GRAY);&&&&&Mat cornerStrength;&&&&cornerHarris(gray,cornerStrength,3,3,0.01);&&&&&double maxStrength;&&&&double minStrength;&&&&// 找到图像中的最大、最小值&&&&minMaxLoc(cornerStrength,&minStrength,&maxStrength);&&&&&Mat dilated;&&&&Mat locaMax;&&&&// 膨胀图像,最找出图像中全部的局部最大值点&&&&dilate(cornerStrength,dilated,Mat());&&&&// compare是一个逻辑比较函数,返回两幅图像中对应点相同的二值图像&&&&compare(cornerStrength,dilated,locaMax,CMP_EQ);&&&&&Mat cornerMap;&&&&double qualityLevel=0.01;&&&&double th=qualityLevel*maxStrength; // 阈值计算&&&&threshold(cornerStrength,cornerMap,th,255,THRESH_BINARY);&&&&cornerMap.convertTo(cornerMap,CV_8U);&&&&// 逐点的位运算&&&&bitwise_and(cornerMap,locaMax,cornerMap);&&&&&drawCornerOnImage(image,cornerMap);&&&&namedWindow("result");&&&&imshow("result",image);&&&&waitKey();&&&&&return 0;}void drawCornerOnImage(Mat& image,const Mat&binary){&&&&Mat_&uchar&::const_iterator it=binary.begin&uchar&();&&&&Mat_&uchar&::const_iterator itd=binary.end&uchar&();&&&&for(int i=0;it!=itd;it++,i++)&&&&{&&&&&&&&if(*it)&&&&&&&&&&&&circle(image,Point(i%image.cols,i/image.cols),3,Scalar(0,255,0),1);&&&&&&&&}}
现在我们得到的效果就比默认的函数得到的结果有相当的改善。
由于cornerHarris的一些缺点,OpenCV提供了另一个相似的函数GoodFeaturesToTrack()它用角点间的距离限制来防止角点粘连在一起。
goodFeaturesToTrack(image,corner,
// 最多检测到的角点数
// 阈值系数
// 角点间的最小距离
goodFeaturesToTrack(image,corner,&&&&&&&&&&&&&&&&&&500,&&&&// 最多检测到的角点数&&&&&&&&&&&&&&&&&&&& 0.01,&&&&// 阈值系数&&&&&&&&&&&&&&&&&&&& 10);&&&&// 角点间的最小距离
它可以得到与上面基本一致的结果。
二、FAST特征点
harris特征在算法复杂性上比较高,在大的复杂的目标识别或匹配应用上效率不能满足要求,OpenCV提供了一个快速检测角点的类FastFeatureDetector,而实际上FAST并不是快的意思,而是Features from Accelerated Segment Test,但这个算法效率确实比较高,下面我们来看看这个类的用法。
OpenCV里为角点检测提供了统一的接口,通过类下面的detect方法来检测对应的角点,而输出格式都是vector&KeyPoint&。
vector&KeyPoint&
FastFeatureDetector fast( // 定义检测类
40); //40是检测的阈值
fast.detect(image,keypoints);
drawKeypoints(image,keypoints,image,Scalar(255,0,0),
DrawMatchesFlags::DRAW_OVER_OUTIMG);
vector&KeyPoint& keypoints; FastFeatureDetector fast( // 定义检测类&&&&40); //40是检测的阈值fast.detect(image,keypoints);&drawKeypoints(image,keypoints,image,Scalar(255,0,0),&&&&DrawMatchesFlags::DRAW_OVER_OUTIMG);
其中drawKeypoints是OpenCV提供的在图像上画角点的函数。它的参数可以让我们选择用不同的方式标记出特征点。
三、尺度不变的SURF特征
surf特征是类似于SIFT特征的一种尺度不变的特征点,它的优点在于比SIFT效率要高,在实际运算中可以达到实时性的要求,关于SURF的原理这里就不过多的介绍,网络上这类的文章很多。
类似于FAST特征点的求法,SURF也可以使用通用接口求得,而SURF特征的类为SurfFeatureDetector,类似的SIFT特征点的检测类为SiftFeatureDetector。
#include &opencv2/core/core.hpp&
#include &opencv2/highgui/highgui.hpp&
#include &opencv2/nonfree/features2d.hpp&
int main()
Mat image=imread("../buliding.png");
vector&KeyPoint&
SurfFeatureDetector surf(2500.);
surf.detect(image,keypoints);
drawKeypoints(image,keypoints,image,Scalar(255,0,0),
DrawMatchesFlags::DRAW_RICH_KEYPOINTS);
namedWindow("result");
imshow("result",image);
waitKey();
1234567891011121314151617181920212223
#include &opencv2/core/core.hpp&#include &opencv2/highgui/highgui.hpp&#include &opencv2/nonfree/features2d.hpp&&using namespace cv;&int main(){&&&&Mat image=imread("../buliding.png");&&&&&vector&KeyPoint& keypoints; &&&&&SurfFeatureDetector surf(2500.);&&&&surf.detect(image,keypoints);&&&&&drawKeypoints(image,keypoints,image,Scalar(255,0,0),&&&&&&&&DrawMatchesFlags::DRAW_RICH_KEYPOINTS);&&&&namedWindow("result");&&&&imshow("result",image);&&&&waitKey();&&&&&return 0;}
这里有一个值得说明的问题是:OpenCV2.4版本后好像把SurfFeatureDetector这个类的定义移到了头文件nonfree/features2d.hpp
中,所以头文件中要加入该文件,并且要把opencv_nonfree24xd.lib加入属性表的链接器熟悉的输入中,其中x换成你当前opencv的版本号。
最终的显示效果如下:
四、SURF特征的描述
在图像配准中,特征点的描述往往不是位置这么简单,而是使用了一个N维向量来描述一个特征点,这些描述子之间可以通过定义距离公式来比较相近程度。
SurfDescriptorExtractor 是一个提取SURF特征点以及其描述的类。
下面是一个宽景图像的拼接配准的例子:
#include &opencv2/core/core.hpp&
#include &opencv2/highgui/highgui.hpp&
#include &opencv2/nonfree/features2d.hpp&
#include &opencv2/legacy/legacy.hpp&
int main()
Mat image1=imread(&../b1.png&);
Mat image2=imread(&../b2.png&);
// 检测surf特征点
vector&KeyPoint& keypoints1,keypoints2;
SurfFeatureDetector detector(400);
detector.detect(image1, keypoints1);
detector.detect(image2, keypoints2);
// 描述surf特征点
SurfDescriptorExtractor surfD
Mat descriptros1,descriptros2;
surfDesc.compute(image1,keypoints1,descriptros1);
surfDesc.compute(image2,keypoints2,descriptros2);
// 计算匹配点数
BruteForceMatcher&L2&float&&
vector&DMatch&
matcher.match(descriptros1,descriptros2,matches);
std::nth_element(matches.begin(),matches.begin()+24,matches.end());
matches.erase(matches.begin()+25,matches.end());
// 画出匹配图
Mat imageM
drawMatches(image1,keypoints1,image2,keypoints2,matches,
imageMatches,Scalar(255,0,0));
namedWindow(&image2&);
imshow(&image2&,image2);
waitKey();
1234567891011121314151617181920212223242526272829303132333435363738
#include &opencv2/core/core.hpp&#include &opencv2/highgui/highgui.hpp&#include &opencv2/nonfree/features2d.hpp&#include &opencv2/legacy/legacy.hpp&&using namespace cv;int main(){&&&&Mat image1=imread("../b1.png");&&&&Mat image2=imread("../b2.png");&&&&// 检测surf特征点&&&&vector<KeyPoint> keypoints1,keypoints2;&&&& &&&&SurfFeatureDetector detector(400);&&&&detector.detect(image1, keypoints1);&&&&detector.detect(image2, keypoints2);&&&&// 描述surf特征点&&&&SurfDescriptorExtractor surfDesc;&&&&Mat descriptros1,descriptros2;&&&&surfDesc.compute(image1,keypoints1,descriptros1);&&&&surfDesc.compute(image2,keypoints2,descriptros2);&&&&&// 计算匹配点数&&&&BruteForceMatcher<L2<float>>matcher;&&&&vector<DMatch> matches;&&&&matcher.match(descriptros1,descriptros2,matches);&&&&std::nth_element(matches.begin(),matches.begin()+24,matches.end());&&&&matches.erase(matches.begin()+25,matches.end());&&&&// 画出匹配图&&&&Mat imageMatches;&&&&drawMatches(image1,keypoints1,image2,keypoints2,matches,&&&&&&&&imageMatches,Scalar(255,0,0));&&&&&namedWindow("image2");&&&&imshow("image2",image2);&&&&waitKey();&&&&&return 0;}
程序中我们选择了25个配准点,得到最后的匹配如下:
可能感兴趣的话题
关于伯乐在线博客
在这个信息爆炸的时代,人们已然被大量、快速并且简短的信息所包围。然而,我们相信:过多“快餐”式的阅读只会令人“虚胖”,缺乏实质的内涵。伯乐在线内容团队正试图以我们微薄的力量,把优秀的原创文章和译文分享给读者,为“快餐”添加一些“营养”元素。
新浪微博:
推荐微信号
(加好友请注明来意)
– 好的话题、有启发的回复、值得信赖的圈子
– 分享和发现有价值的内容与观点
– 为IT单身男女服务的征婚传播平台
– 优秀的工具资源导航
– 翻译传播优秀的外文文章
– 国内外的精选文章
– UI,网页,交互和用户体验
– 专注iOS技术分享
– 专注Android技术分享
– JavaScript, HTML5, CSS
– 专注Java技术分享
– 专注Python技术分享
& 2018 伯乐在线没有更多推荐了,
加入CSDN,享受更精准的内容推荐,与500万程序员共同成长!}

我要回帖

更多关于 特征提取与图像处理 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信