python全景图像拼接_python实现图像全景拼接

图像的全景拼接包括三大部分:特征点提取与匹配、图像配准、图像融合 。
1、基于SIFT的特征点的提取与匹配
利用Sift提取图像的局部特征,在尺度空间寻找极值点,并提取出其位置、尺度、方向信息 。
具体步骤:
1). 生成高斯差分金字塔(DOG金字塔),尺度空间构建
2). 空间极值点检测(关键点的初步查探)
3). 稳定关键点的精确定位
4). 稳定关键点方向信息分配
5). 关键点描述
6). 特征点匹配
2、图像配准
图像配准是一种确定待拼接图像间的重叠区域以及重叠位置的技术,它是整个图像拼接的核心 。本节采用的是基于特征点的图像配准方法,即通过匹配点对构建图像序列之间的变换矩阵,从而完成全景图像的拼接 。
变换矩阵H求解是图像配准的核心,其求解的算法流程如下 。
1)检测每幅图像中特征点 。
2)计算特征点之间的匹配 。
3)计算图像间变换矩阵的初始值 。
4)迭代精炼H变换矩阵 。
5)引导匹配 。用估计的H去定义对极线附近的搜索区域,进一步确定特征点的对应 。
6)重复迭代4)和5)直到对应点的数目稳定为止 。
设图像序列之间的变换为投影变换
可用4组最佳匹配计算出H矩阵的8 个自由度参数hi=( i=0,1,...,7),并以此作为初始值 。
为了提高图像配准的精度,本节采用算法对图像变换矩阵进行求解与精炼,达到了较好的图像拼接效果 。算法的思想简单而巧妙:首先随机地选择两个点,这两个点确定了一条直线,并且称在这条直线的一定范围内的点为这条直线的支撑 。这样的随机选择重复数次,然后,具有最大支撑集的直线被确认为是样本点集的拟合 。在拟合的误差距离范围内的点被认为是内点,它们构成一致集,反之则为外点 。根据算法描述,可以很快判断,如果只有少量外点,那么随机选取的包含外点的初始点集确定的直线不会获得很大的支撑,值得注意的是,过大比例的外点将导致算法失败 。在直线拟合的例子中,由点集确定直线至少需要两个点;而对于透视变换,这样的最小集合需要有4个点 。
3、图像融合
因为相机和光照强度的差异,会造成一幅图像内部,以及图像之间亮度的不均匀,拼接后的图像会出现明暗交替,这样给观察造成极大的不便 。亮度与颜色均衡处理,通常的处理方式是通过相机的光照模型,校正一幅图像内部的光照不均匀性,然后通过相邻两幅图像重叠区域之间的关系,建立相邻两幅图像之间直方图映射表,通过映射表对两幅图像做整体的映射变换,最终达到整体的亮度和颜色的一致性 。
具体实现:
numpy as np
cv2 as cv
fromas plt
if== '':
top, bot, left, right = 100, 100, 0, 500
img1 = cv.('1.jpg')
img2 = cv.('2.jpg')
= cv.(img1, top, bot, left, right, cv., value=http://www.kingceram.com/post/(0, 0, 0))
= cv.(img2, top, bot, left, right, cv., value=http://www.kingceram.com/post/(0, 0, 0))
= cv.(, cv.)
= cv.(, cv.)
sift = cv.().()
# find theandwith SIFT
kp1, des1 = sift.(, None)
kp2, des2 = sift.(, None)
# FLANN
= 1
= dict(=, trees=5)
= dict(=50)
flann = cv.(, )

python全景图像拼接_python实现图像全景拼接

文章插图
= flann.(des1, des2, k=2)
# Need to draw only good , soa mask
= [[0, 0] for i in range(len())]
good = []
pts1 = []
pts2 = []
# ratio test as per Lowe's paper
for i, (m, n) in ():
if m. < 0.7*n.:
good.(m)
pts2.(kp2[m.].pt)