C'est une technologie un peu ancienne, mais vous pouvez la voir dans l'estimation de l'auto-position du système de robot. Je veux essayer le marqueur AR J'ai essayé de reconnaître ArUco avec le Raspberry Pi que j'ai.
Cela ressemble à ceci pour voir le résultat de l'exécution. (https://www.youtube.com/watch?v=aepFM_JsxbU) Le contour du marqueur et les axes ID et xyz sont affichés. Parce que vous pouvez aussi avoir un lacet Il peut être utilisé à diverses fins.
environnement ・ RasPi4 (Cela devrait fonctionner avec RasPi3) ・ Caméra USB (Logitech) → La caméra Raspi est également disponible.
Tout d'abord, mis en place selon l'article suivant de "Karaage". OpenCV est requis pour la reconnaissance. C'était très fluide. Je suis toujours reconnaissant. ・ [Comment créer un environnement de reconnaissance d'image avec apprentissage en profondeur de Raspberry Pi 4 de zéro à 1 heure] (https://karaage.hatenadiary.jp/entry/rpi4-dl-setup)
Installer des packages supplémentaires Comme mentionné dans l'article, j'ai tout mis en une seule fois. ・ [Configuration pour un apprentissage amélioré de Raspberry Pi 4] (https://note.com/npaka/n/n034c8ee6e5cc)
Vous êtes maintenant prêt.
Génération de marqueurs → Voir le lien ci-dessous pour la génération. ・ (Calibrage de l'appareil photo) → Si vous souhaitez le déplacer pour le moment, mettez-le hors tension. ・ Reconnaissance des marqueurs ・ Estimation de la posture du marqueur AR avec python
・ Vous devriez pouvoir l'utiliser en copiant.
ARdetect.py
#!/usr/bin/env python
# -*- coding: utf-8 -*
import numpy as np
import cv2
from cv2 import aruco
def main():
cap = cv2.VideoCapture(1) #Changer la valeur en fonction de la caméra utilisée
#Taille du marqueur
marker_length = 0.056 # [m]
#Sélection du dictionnaire de marqueurs
dictionary = aruco.getPredefinedDictionary(aruco.DICT_4X4_50)
#camera_matrix = np.load("mtx.npy")
#distortion_coeff = np.load("dist.npy")
#Si vous avez calibré la caméra, utilisez ce qui précède.
camera_matrix = np.array( [[1.42068235e+03,0.00000000e+00,9.49208512e+02],
[0.00000000e+00,1.37416685e+03,5.39622051e+02],
[0.00000000e+00,0.00000000e+00,1.00000000e+00]] )
distortion_coeff = np.array( [1.69926613e-01,-7.40003491e-01,-7.45655262e-03,-1.79442353e-03, 2.46650225e+00] )
while True:
ret, img = cap.read()
corners, ids, rejectedImgPoints = aruco.detectMarkers(img, dictionary)
aruco.drawDetectedMarkers(img, corners, ids, (0,255,255))
if len(corners) > 0:
#Traiter par marqueur
for i, corner in enumerate(corners):
rvec, tvec, _ = aruco.estimatePoseSingleMarkers(corner, marker_length, camera_matrix, distortion_coeff)
#Supprimer les axes inutiles
tvec = np.squeeze(tvec)
rvec = np.squeeze(rvec)
#Conversion de vecteur de rotation en origines
rvec_matrix = cv2.Rodrigues(rvec)
rvec_matrix = rvec_matrix[0] #Extrait de rodorigues
#Traduction du vecteur translationnel
transpose_tvec = tvec[np.newaxis, :].T
#Synthétique
proj_matrix = np.hstack((rvec_matrix, transpose_tvec))
#Conversion en angle d'Euler
euler_angle = cv2.decomposeProjectionMatrix(proj_matrix)[6] # [deg]
print("ID : " + str(ids[i]))
#Visualisation
draw_pole_length = marker_length/2 #Longueur réelle[m]
aruco.drawAxis(img, camera_matrix, distortion_coeff, rvec, tvec, draw_pole_length)
cv2.imshow('drawDetectedMarkers', img)
if cv2.waitKey(10) & 0xFF == ord('q'):
break
cv2.destroyAllWindows()
if __name__ == '__main__':
main()
Veuillez l'utiliser lorsqu'il est difficile à générer.
Recommended Posts