팩토리 작업 자동화를 위해서 로봇 혹은 로봇팔의 도입과 이용이 증가하고 있는 추세이다. 특히 농업현장에서도 스마트팜 플랫폼으로 로봇팔을 이용한 운반, 수확 등 다양한 곳에 적용되고 있다. 로봇팔의 정밀한 제어를 위해 3차원 좌표상이 로봇팔의 궤적과 TCP(Tool Center Point)의 좌표 인식이 선행되어야 하고 이를 기반으로 한 제어가 필요하다. 과실 수확 작업을 위한 로봇팔은 6축 로봇팔(UR10e, Universal Robots, Denmark) 모델을 사용하였다. 먼저 로봇팔의 움직임 구축을 위해 ROS(Robot Operating System)를 기반으로 순방향, 역기구학(inverse kinematic), 동역학과 같은 동적 속성을 계산하여 각 조인트별 연속적인 움직임에 대한 궤적을 지정할 수 있는 KDL(Kinematics and Dynamics Library)를 사용하였다. 6축에 대한 각 조인트별 각도는 RGB-Depth 카메라로부터 3차원 공간상의 좌표값을 입력받아 퀘터니안 기반 변환함수를 이용하여 결정하고, 이를 End-Effector가 결정된 최종 위치로 움직일 수 있도록 하였다. 로봇팔의 지정된 공간 좌표로 이동시 불필요한 움직임을 최소화하기 위하여 현재 위치와 목표 지점의 경로 사이에 경유지점(Way-point)를 지정하여 이동할 수 있게 하였다. 작업 순서로는 최초 시작 지점에서 과실의 좌표를 인식한 후, 경유 지점으로 이동, 인식된 과실 좌표로 이동, 과실 파지 및 수확, 경유 지점으로 이동, 수확을 위한 선적 위치로 이동 순의 동작을 반복하여 수확 작업을 수행하였다.
본 연구를 통해 개발된 기술의 검증을 위해 사과 모형 및 실제 과수원에서 RGB-Depth 카메라와 로봇팔 기반 수확 작업을 수행하였다. RGB-Depth 카메라로부터 얻어진 수확 대상에 대한 인식 위치 오차는 2~10mm로 측정되었다. 이는 과실을 수확할 그리퍼를 설계, 제작할 때 적용 가능한 오차 범주로써 과실과 과수에 상처를 주지 않고 수확 작업이 가능할 것으로 사료된다.