第六章:在VMware中进行UR10e机器人的手眼标定实验全过程
本实验需要用到的硬件设备:
ur10e机器人 (其他型号)、windows电脑、Intel RealSense D455 深度相机 (其他型号)
网线、usb数据线(用来连接安卓手机)、usb3.0数据线(连接深度相机)
这是一个系列其中包含:
1.在VMware虚拟机中安装Ubuntu环境、ROS环境
2.安装UR驱动(用来连接UR真机)
3.安装MoveIt(用来控制UR10e机器人)
4.安装realsense的驱动
5.安装Aruco码驱动
6.手眼标定全实验过程
先说下目前所需工具的版本:
1.VMware Workstation Pro 17
2.Ubuntu 20.04
3.ROS Noetic Ninjemys
4.universal-robot-noetic-devel
5.librealsense2
6.aruco_ros(noetic-devel)
7.vision_visp(noetic-devel)
8.easy_handeye
上篇内容:
上篇: 我们终于完成了ur10e的手眼标定全部的环境和配置
如有需要可自行点击下方链接回到第五章:
一、VMware连接UR10e机器人
1.启动ur机器人驱动
新建一个终端开启工作空间,并启动驱动(其中ip地址换成自己的)
cd catkin_ws/
source devel/setup.bash
roslaunch ur_robot_driver ur10e_bringup.launch limited:=true robot_ip:=192.168.56.2
出现Robot's safety mode is now NORMAL就算启动成功
2.在示教器上打开脚本控制
先将脚本添加到程序中(具体在《第一章》+《第二章》)
然后运行程序
最后终端中出现Robot connected to reverse interface. Ready to receive control commands.就算连接成功
二、开启moveIt
1.新建一个终端,刚刚那个不要关闭
2.启动moveIt服务(具体配置在《第三章》+《补充》)
cd catkin_ws/
source devel/setup.bash
roslaunch ur10e_config demo.launch limited:=true
弹出的窗口不用管它,用不到,可以关闭可以缩小
三、开启easy_handeye插件
1.新建一个终端,前面的不要关闭
2.启动easy_handeye当时配置好的launch脚本(具体配置在《第四章》+《第五章》)
cd catkin_ws/
source devel/setup.bash
roslaunch easy_handeye ur10e_eye_to_hand_calibration.launch
这时候会弹出三个窗口(如果没弹就看下终端是否报错)
四、打开相机可视化rqt
1.再新建一个终端(这里应该是总共有4个终端了)
2. 终端输入rqt
rqt
然后选择 /aruco_tracker/result
五、进行手眼标定
1.首先找到check starting pose,并点击
2.出现17个姿态就对了
3.然后我们依次点击Next > Plan > Execute
4.在另外一个窗口上点击Take Sample
5.我们一直循环Next > Plan > Execute > Take Sample,循环17次后点击Compute > Save
到这里手眼标定就完成了,我们可以关闭所有的终端/窗口了
六、找到手眼标定文件
1.在主目录下打开显示隐藏文件
2.找到 /.ros/easy_handeye/ur10e_realsense_handeyecalibration_eye_on_hand.yaml
3.这个就是我们得到的矩阵文件
通过这个文件我们可以将摄像机中的某个点坐标,转换成机器人的工具坐标。
总结:
1.依次打开了ur机器人驱动、moveit插件,easy_handeye插件(包含了aruco和realsense的启动)
2.进行了手眼标定的流程
3.找到了矩阵文件
4.手眼标定实验全部完成
恭喜!!!完成了手眼标定 ~
免责声名:
一切均严格参照各类工具开源策略,没有任何侵权意图,本文章全由自己编写,如出现任何问题请联系我,我将删除。