系统城装机大师 - 固镇县祥瑞电脑科技销售部宣传站!

当前位置:首页 > 脚本中心 > python > 详细页面

Python+OpenCV实现图像的全景拼接

时间:2020-03-05来源:电脑系统城作者:电脑系统城

本文实例为大家分享了Python+OpenCV实现图像的全景拼接的具体代码,供大家参考,具体内容如下

环境:python3.5.2 + openCV3.4

1.算法目的

将两张相同场景的场景图片进行全景拼接。

2.算法步骤

本算法基本步骤有以下几步:

步骤1:将图形先进行桶形矫正

没有进行桶形变换的图片效果可能会像以下这样:

Python+OpenCV实现图像的全景拼接

图片越多拼接可能就会越夸张。

Python+OpenCV实现图像的全景拼接

本算法是将图片进行桶形矫正。目的就是来缩减透视变换(Homography)之后图片产生的变形,从而使拼接图片变得畸形。

步骤2:特征点匹配

本算法使用的sift算法匹配,它具有旋转不变性和缩放不变性,具体原理在之后会补上一篇关于sift算法的文章,这里就不做详细介绍。

在匹配特征点的过程中,透视矩阵选取了4对特征点计算,公式为

Python+OpenCV实现图像的全景拼接

点的齐次坐标依赖于其尺度定义,因此矩阵H也仅依赖尺度定义,所以,单应性矩阵具有8个独立的自由度。

如果在选取的不正确的特征点,那么透视矩阵就可能计算错误,所以为了提高结果的鲁棒性,就要去除这些错误的特征点,而RANSAC方法就是用来删除这些错误的特征点。

**RANSAC:**用来找到正确模型来拟合带有噪声数据的迭代方法。基本思想:数据中包含正确的点和噪声点,合理的模型应该能够在描述正确数据点的同时摈弃噪声点。

RANSAC方法随机获取4对不同的特征匹配坐标,计算出透视矩阵H1,再将第二张图的特征匹配点经过这个矩阵H1映射到第一张图的坐标空间里,通过计算来验证这个H1矩阵是否满足绝大部分的特征点。
通过迭代多次,以满足最多特征匹配点的特征矩阵H作为结果。

这样正常情况就可以去除错误的特征点了,除非匹配错误的特征点比正确的还多。

下图是我在嘉庚图书馆旁拍摄的照片的特征点匹配。

Python+OpenCV实现图像的全景拼接

步骤3:利用得到的变换矩阵进行图片的拼接。

可以看出基本做到了无缝拼接。只是在色差上还是看得出衔接的部分存在。

 

实现结果

我在宿舍里又多照了几组照片来实验:
室内宿舍场景的特征点匹配:

Python+OpenCV实现图像的全景拼接

拼接结果:

 

在室内的效果根据结果来看效果也还可以。

我测试了宿舍里景深落差较大的两张图片:

特征点匹配:

Python+OpenCV实现图像的全景拼接

虽然距离较远,但是还是可以粗略的匹配到特征点。

拼接结果:

 

从结果上来看可以看得出来,两张图片依然可以正确而粗略地拼接再一起,可以看得出是同一个区域。只是由于特征点不够,在细节上景深落差较大的还是没办法完美地拼接。


 
  1. import numpy as np
  2. import cv2 as cv
  3. import imutils
  4.  
  5. class Stitcher:
  6. def __init__(self):
  7. self.isv3 = imutils.is_cv3()
  8.  
  9. def stitch(self,imgs, ratio = 0.75, reprojThresh = 4.0, showMatches = False):
  10. print('A')
  11. (img2, img1) = imgs
  12. #获取关键点和描述符
  13. (kp1, des1) = self.detectAndDescribe(img1)
  14. (kp2, des2) = self.detectAndDescribe(img2)
  15. print(len(kp1),len(des1))
  16. print(len(kp2), len(des2))
  17. R = self.matchKeyPoints(kp1, kp2, des1, des2, ratio, reprojThresh)
  18.  
  19. #如果没有足够的最佳匹配点,M为None
  20. if R is None:
  21. return None
  22. (good, M, mask) = R
  23. print(M)
  24. #对img1透视变换,M是ROI区域矩阵, 变换后的大小是(img1.w+img2.w, img1.h)
  25. result = cv.warpPerspective(img1, M, (img1.shape[1] + img2.shape[1], img1.shape[0]))
  26. #将img2的值赋给结果图像
  27. result[0:img2.shape[0], 0:img2.shape[1]] = img2
  28.  
  29. #是否需要显示ROI区域
  30. if showMatches:
  31. vis = self.drawMatches1(img1, img2, kp1, kp2, good, mask)
  32. return (result, vis)
  33.  
  34. return result
  35.  
  36.  
  37. def detectAndDescribe(self,img):
  38. print('B')
  39. gray = cv.cvtColor(img, cv.COLOR_BGR2GRAY)
  40.  
  41. #检查我们使用的是否是penCV3.x
  42. if self.isv3:
  43. sift = cv.xfeatures2d.SIFT_create()
  44. (kps, des) = sift.detectAndCompute(img, None)
  45. else:
  46. sift = cv.FastFeatureDetector_create('SIFT')
  47. kps = sift.detect(gray)
  48. des = sift.compute(gray, kps)
  49.  
  50. kps = np.float32([kp.pt for kp in kps]) # **********************************
  51. #返回关键点和描述符
  52. return (kps, des)
  53.  
  54. def matchKeyPoints(self,kp1, kp2, des1, des2, ratio, reprojThresh):
  55. print('C')
  56. #初始化BF,因为使用的是SIFT ,所以使用默认参数
  57. matcher = cv.DescriptorMatcher_create('BruteForce')
  58. # bf = cv.BFMatcher()
  59. # matches = bf.knnMatch(des1, des2, k=2)
  60. matches = matcher.knnMatch(des1, des2, 2) #***********************************
  61.  
  62. #获取理想匹配
  63. good = []
  64. for m in matches:
  65. if len(m) == 2 and m[0].distance < ratio * m[1].distance:
  66. good.append((m[0].trainIdx, m[0].queryIdx))
  67.  
  68. print(len(good))
  69. #最少要有四个点才能做透视变换
  70. if len(good) > 4:
  71. #获取关键点的坐标
  72. # src_pts = np.float32([kp1[m.queryIdx].pt for m in good]).reshape(-1, 1, 2)
  73. # dst_pts = np.float32([kp2[m.trainIdx].pt for m in good]).reshape(-1, 1, 2)
  74. src_pts = np.float32([kp1[i] for (_, i) in good])
  75. dst_pts = np.float32([kp2[i] for (i, _) in good])
  76.  
  77. #通过两个图像的关键点计算变换矩阵
  78. (M, mask) = cv.findHomography(src_pts, dst_pts, cv.RANSAC, reprojThresh)
  79.  
  80. #返回最佳匹配点、变换矩阵和掩模
  81. return (good, M, mask)
  82. #如果不满足最少四个 就返回None
  83. return None
  84.  
  85. def drawMatches(img1, img2, kp1, kp2, matches, mask, M):
  86. # 获得原图像的高和宽
  87. h, w = img1.shape[:2]
  88. # 使用得到的变换矩阵对原图像的四个角进行变换,获得目标图像上对应的坐标
  89. pts = np.float32([[0, 0], [0, h-1], [w-1, h-1], [w-1, 0]]).reshape(-1, 1, 2)
  90. dst = cv.perspectiveTransform(pts, M)
  91. matchesMask = mask.ravel().tolist()
  92.  
  93. draw_params = dict(matchColor = (0, 255, 0),
  94. singlePointColor = None,
  95. matchesMask = matchesMask,
  96. flags = 2)
  97. img = cv.drawMatches(img1, kp1, img2, kp2, matches, None, **draw_params)
  98.  
  99. return img
  100.  
  101. def drawMatches1(self,img1, img2, kp1, kp2, metches,mask):
  102. print('D')
  103. (hA,wA) = img1.shape[:2]
  104. (hB,wB) = img2.shape[:2]
  105. vis = np.zeros((max(hA,hB), wA+wB, 3), dtype='uint8')
  106. vis[0:hA, 0:wA] = img1
  107. vis[0:hB, wA:] = img2
  108. for ((trainIdx, queryIdx),s) in zip(metches, mask):
  109. if s == 1:
  110. ptA = (int(kp1[queryIdx][0]), int(kp1[queryIdx][1]))
  111. ptB = (int(kp2[trainIdx][0])+wA, int(kp2[trainIdx][1]))
  112. cv.line(vis, ptA, ptB, (0, 255, 0), 1)
  113.  
  114. return vis
  115.  
  116. # def show():
  117. # img1 = cv.imread('image/sedona_left_01.png')
  118. # img2 = cv.imread('image/sedona_right_01.png')
  119. # img1 = imutils.resize(img1, width=400)
  120. # img2 = imutils.resize(img2, width=400)
  121. #
  122. # stitcher = cv.Stitcher()
  123. # (result, vis) = stitcher.stitch([img1, img2])
  124. # # (result, vis) = stitch([img1,img2], showMatches=True)
  125. #
  126. # cv.imshow('image A', img1)
  127. # cv.imshow('image B', img2)
  128. # cv.imshow('keyPoint Matches', vis)
  129. # cv.imshow('Result', result)
  130. #
  131. # cv.waitKey(0)
  132. # cv.destroyAllWindows()
  133. # show()

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我们。

分享到:

相关信息

系统教程栏目

栏目热门教程

人气教程排行

站长推荐

热门系统下载