무인잠수정을 위한 효과적이고 유연한 설치 성능을 지닌 수중 레이저스캐너 개발

Development of Underwater Laser Scanner with Efficient and Flexible Installation for Unmanned Underwater Vehicle

Article information

J. Ocean Eng. Technol. 2018;32(6):511-517
Publication date (electronic) : 2018 December 27
doi : https://doi.org/10.26748/KSOE.2018.32.6.511
*Marine ICT Research Division, KIRISO, Daejeon, Korea
이영준*, 이윤건*, 채준보*, 최현택*, 여태경*orcid_icon
*선박해양플랜트연구소 해양ICT연구본부
Corresponding author Tae-Kyeong Yeu: +82-42-866-3872, yeutk@kriso.re.kr
Received 2018 August 29; Revised 2018 October 31; Accepted 2018 December 13.

Trans Abstract

This paper proposes a vision-based underwater laser scanner with separate structures for an underwater camera and a line laser projector. Because the two devices can be adaptively placed regardless of the features of the unmanned underwater vehicle (UUV), the scanner has significant advantages in relation to its availability and flexibility. Position calibration between the underwater camera and laser projector guarantees a 3D measuring performance with high accuracy. To verify the proposed underwater laser scanner, a test-bed system was manufactured, which consisted of the laser projector, camera, Pan&Tilt, and Attitude and Heading Reference System (AHRS). A camera-laser calibration test and simple 3D reconstruction test were performed in a water tank and the experimental results are reported.

1. 서 론

오늘날 지상 환경에서 운용되는 장비, 계측기 그리고 로봇공학 분야에서 언급되는 모바일 로봇 등은 많은 연구와 발전을 거듭하였고 스스로 운행이 가능한 자율 자동차의 상용화까지 바라보게 되었다. 이와 유사하게 수중 환경에서는 무인잠수정(Unmanned underwater vehicle, UUV)이 인간의 역할을 대신하여 조사, 관측, 연구 등 다양한 목적으로 활용되고 있다. 하지만 현실적으로 무인잠수정이 사용자에게 만족할만한 성능과 정보를 제공하고 있다고 말하기는 어렵다. 이러한 차이는 주변 환경을 인지하는 지상 센서와 수중 센서의 차이에 있다고 볼 수 있다. 예를 들어, 키넥트(Kinect, Microsoft)와 같은 3차원 계측 센서는 가격이 매우 저렴한 반면 고품질 3차원 정보를 획득할 수 있으며, 3차원 라이다(Lidar)의 경우 높은 정확도를 갖는 정보의 빠른 업데이트가 가능함에 따라 자율 자동차의 혁신적인 발전을 이끌기도 하였다. 이와 반대로, 수중 센서인 다중 음향측심기(Multi-beam echo sounder, MBES)의 경우 센서 정보의 업데이트 속도는 초당 수회 이하로 매우 느리며 잡음이 높아 정보의 품질이 좋지 않다. 그리고 지상에서의 엔코더(Encorder)와 같이 수중에서 자기 속도를 알려주는 도플러 속도계(Doppler velocity log, DVL)의 경우 해저면의 상태에 따라 정보 검출이 불량하여 계측 정보의 안정적인 제공이 쉽지 않다. 이러한 수중 센서의 현실적 한계로 인해 무인잠수정의 활용성은 한계에 다다르고 있고 해양 기술의 발전은 느리게 진행되고 있다.

수중 센서의 부정확한 한계를 극복하고자 수중 광학 영상을 이용한 접근이 연구되고 있다. 앞서 언급된 DVL과 같은 항법 센서에 의한 수중 위치 정확도를 높이기 위해 광학 영상이 활용되고 있다. 선박 하부를 유영하는 수중 로봇의 위치 보정을 위해 선박 하부 광학 영상의 특징을 등록하거나(Kim and Eustice, 2013), 수중 영상에서 강인하게 나타나는 인공 표식물(Kim et al., 2014) 또는 수중 재킷 구조의 구조적인 정보를 바탕으로 수중 영상과 비교하여(Jung et al., 2016) 항법 성능을 높이고자 하는 연구가 진행되고 있다. 수중에서 정밀 계측이 요구되는 경우에 수중 광학 영상과 함께 레이저를 이용한 수중 레이저 스캐너가 사용된다(Josep, 2004; Shukai et al., 2016). 레이저를 점, 선, 격자 모양으로 피사체에 투영하고 영상 처리를 통해 레이저를 검출하여 물체의 정확한 외형을 계측한다. 이것은 레이저를 사용한 능동형 시스템이기 때문에 단일 수중 카메라만을 사용했을 때와 비교하여 탁도 및 주변 빛에 의한 간섭이 상대적으로 적다. 이러한 원리를 이용하여 상용화된 수중 레이저 스캐너로는 ULS100/200(2G Robotics, 2016), M1500/3200(Newton labs, 2015), Subsea LiDAR(3D at Depth, 2015)가 있다. 그러나 상용화된 장비가 존재함에도 불구하고 이를 무인잠수정에 탑재하여 사용하기란 쉽지 않다. 레이저 스캐너는 계측 범위에 따라 카메라와 레이저 방사기 사이에 베이스라인(Baseline)이 다르다. 예를 들면, 2G Robotics 제품의 경우 최대 1.0m까지 계측 가능한 레이저 스캐너의 베이스라인은 0.1m, 최대 2.5m는 0.3m, 15m는 1.2m로 늘어난다. 무인 잠수정의 경우, 레이저 스캐너가 로봇 팔 작업과 같이 로봇의 전방 1m 내 작업 영역만을 계측하는데 활용될 수 있는가 하면 넓은 영역에 대한 자세한 스캐닝을 필요로 할 때 활용될 수 있다. 하지만 사용 범위에 커짐에 따라 레이저 스캐너의 베이스라인이 늘어나게 되고 이는 장비의 크기 증가로 이어진다. 결과적으로 탑재 중량 및 크기, 설치 등의 한계를 갖는 무인 잠수정에 장착하기 쉽지 않을 뿐 아니라 어뢰형 또는 소형 무인 잠수정에는 더욱 장착이 어렵다.

이에 본 논문은 무인잠수정에 장착이 용이하고 수중 정밀 계측이 가능한 영상 기반 수중 레이저 스캐너를 제안한다. 제안하는 수중 레이저 스캐너는 무인잠수정에 각각 장착되는 수중 카메라와 수중 라인 레이저를 활용하여 간단하게 시스템이 구현되며, 카메라와 라인 레이저 사이의 보정(Calibration) 과정이 수행된다. 이는 무인잠수정의 형태에 맞게 카메라와 라인 레이저의 위치를 선택, 조정할 수 있어 편리하고 효과적인 장착이 가능하게 하며, 높은 정확도와 정밀도를 갖는 3차원 정보 획득을 보장할 수 있다. 본 논문의 2절에서는 무인잠수정에 장착이 용이한 영상 기반 레이저 스캐너의 개념에 대해 설명하고, 3절에서는 카메라와 라인 레이저 사이의 보정 방법에 대해 설명한다. 4절 실험에서는 영상 기반 수중 레이저 스캐너 시험 장비(Test-bed)를 구성하여 카메라-레이저 보정 및 성능을 검증하여 보고, 시험 장비를 통해 획득된 수중 3차원 정보를 이용하여 3차원 복원을 수행한 결과를 소개한다.

2. 영상 기반 수중 레이저 스캐너 및 무인잠수정 활용 개념

영상 기반 레이저 스캐너는 카메라와 라인 레이저 방사기(Line laser projector)로 구성된다. Fig. 1(a)는 이러한 시스템의 좌표계 및 거리 검출 개념을 보여준다. 레이저 방사기로부터 출력된 녹색 라인 레이저는 전역 좌표계(World coordinate, {W})상 임의의 물체 표면에 맺히게 되고 이를 카메라를 통해 획득하여 영상 좌표계(Image coordinate, {I}) 또는 영상 평면 상에 녹색선으로 표현된다. 영상 처리를 통해 녹색선을 검출하면 카메라와 라인 레이저와 위치 관계를 통해 카메라 좌표계(Camera coordinate, {C})상 녹색선의 3차원 위치를 검출하게 된다. 여기서, 영상 좌표계에 맺힌 녹색선을 카메라 좌표계 상의 3차원 위치로 계산 할 수 있는 투영변환행렬(CTI)이 필요하다. 이를 얻기 위해 카메라와 라인 레이저 방사기 사이의 보정 과정이 필요하며, 이러한 내용은 3절에서 설명한다.

Fig. 1.

Coordinate system of vision based underwater laser scanner

수중 레이저 스캐너에 사용되는 카메라와 라인 레이저 방사기는 크기가 소형이고 설치 위치의 큰 제약이 없기 때문에 대형 무인잠수정뿐만 아니라 소형 무인잠수정에도 쉽게 설치 및 운영이 가능한 장점이 있다. 또한, 대부분의 무인잠수정이 전방 또는 하방 카메라를 기본적으로 장착하고 있는 것을 고려할 때 라인 레이저 방사기를 추가 설치하고, 기존 장착된 카메라와 라인 레이저를 보정하여 운용한다면 공간 및 하중의 제약이 많은 소형 무인잠수정에는 매우 효과적인 방법이 될 수 있다. Fig. 2는 무인잠수정의 대표적인 형태인 호버링(Hovering)형 동체와 어뢰형(Torqedo) 동체에 제안된 수중 레이저 스캐너를 장착한 예시를 보여주고 있다. 무인잠수정의 작업 영역 또는 해저면 등의 3차원 정보를 획득하고자 할 때 관측 영역에 맞추어 카메라와 라인레이저 방사기를 설치하고 해당 위치에서 보정을 수행하면 정밀한 3차원 위치 정보를 검출할 수 있다.

Fig. 2.

Examples of laser scanner installation on UUV

3. 카메라와 라인레이저 보정(Calibration)

카메라와 라인 레이저 방사기의 보정 과정은 카메라 및 레이저 방사기의 무인잠수정 장착의 용이성 및 레이저 스캐너의 계측 정확도를 높이는데 있어 매우 중요한 과정이다. 앞서 언급하였듯이 보정 과정을 통해 영상 좌표계 또는 영상 평면에 맺힌 녹색 라인의 픽셀 위치(u,vT)를 카메라 좌표계 상의 3차원 위치(x,y,zT)로 계산 할 수 있는 변환행렬(CTI)을 얻고자 한다. 이를 위해 Fig. 1(b)와 같이 체스보드를 이용하고자 한다.

보정은 체스보드 평면과 레이저 직선(Laser ray, v)을 활용하여 평면과 직선이 교차하는 3차원 점 P(x,y,z)의 위치를 유도하는 방법으로 수행된다. 이를 위해 첫 번째, 카메라 좌표계 상에 정의된 체스보드 평면을 구하기 위해 전역 좌표계와 카메라 좌표계 사이의 회전 변환 행렬(M)을 구한다. 두 번째, 회전 변환 행렬(있는가하면)을 통해 체스보드 평면의 방정식을 유도한다. 세 번째, 영상 평면에 나타난 녹색선 위의 점 p(u,v)를 이용하여 v를 유도하고 체스보드 평면과 벡터 v의 교차점 P(x,y,z)를 구한다. 이때 녹색선 위의 점 p(u,v)는 녹색선의 세로축 방향 길이에 따라 다수가 될 수 있다. 마지막으로 영상 위의 점 pi(u,v) [i=1,2,...,n]과 이에 대응하는 3차원 상의 점 Pi(x,y,z) [i=1,2,...,n]을 바탕으로 영상 좌표계에서 3차원 좌표계로 투영되는 변환행렬(CTI)을 계산한다.

3.1 전역 좌표계와 카메라 좌표계 사이의 변환 행렬 M

카메라를 기준으로 상대적인 거리를 검출하기 때문에 최종적으로 얻고자 하는 3차원 상의 위치는 카메라 좌표계에서 표현된다. 카메라 좌표계 상에서의 체스보드 평면의 방정식을 구하기 위해 투영 변환을 이용한다. Fig. 1(b)와 같이 전역 좌표계({W})가 체스보드 평면에 존재 할 때 체스보드의 정사각형 패턴의 크기를 이미 알고 있으므로 zW=0으로 하는 패턴 교차점의 3차원 위치를 정의할 수 있다. 또한, 체스보드 패턴 교차점의 영상 내 위치 p(u,v)는 영상 처리를 통해 얻을 수 있다. 이러한 두 정보를 이용하여 식 (1)의 투영행렬(K)을 정의할 수 있고 식 (2)와 같이 선형 방정식 형태로 변환하여 다수의 대응점에 만족하는 투영행렬을 얻을 수 있다. 사전에 핀홀 카메라 보정을 통해 카메라 내부 파라미터(A)를 알고 있다고 가정하면 전역 좌표계와 카메라 좌표계 사이의 변환 행렬(M)을 얻을 수 있다.

(1) [uv1]I=K[xyz1]W=[k11k12k13k14k21k22k23k24k31k32k331][xyz1]W=sAM[xyz1]W
(2) [XiYiZi10000uiXiuiYiuiZi0000XiYiZi1uiXiviYiviZi][k11k12k13k14k21k22k23k24k31k32k33]T=[uivi]

3.2 체스보드 평면 방정식

카메라 좌표계를 기준으로 체스보드 평면 방정식을 유도한다. 평면 방정식은 원점을 지나는 법선벡터와 평면 사이의 교차점으로 표현된다. 카메라 좌표계 상의 체스보드 평면의 법선 벡터와 교차점은 전역 좌표계 상의 체스보드 법선벡터와 교차점을 변환행렬(M)에 의해 식 (3)식 (4)와 같이 계산된다. 전역 좌표계 상의 원점을 지나는 법선벡터는 nW = [0,0,1]T이고, 교차점은 pW = [0,0,0]T이다. 그리고 평면 방정식에 의해 dC=nCTpC를 얻을 수 있다.

(3) nC=M[n1n2n30]TW=M[0010]TW
(4) pC=M[p1p2p30]TW=M[0001]TW

이를 통해 카메라 좌표계에서 본 체스보드 평면의 방정식은 식 (5)와 같다.

(5) nWTP=dC

3.3 체스보드 평면과 v 의 교차점 P(x,y,z)

Fig. 1(b)에서 v는 카메라의 원점, 영상 평면에 나타난 녹색선에 해당하는 픽셀 p(u,v), 그리고 교차점 P(x,y,z)를 지난다. 식 (6)은 이러한 v를 이용하여 점 P(x,y,z)의 위치를 보여준다. 여기서 OC는 카메라 좌표계의 원점을 나타내며, 직선의 방향을 나타내는 v는 카메라 원점과 p(u,v) 값을 이용하여 얻을 수 있다.

(6) P=λv+OC

그리고 체스보드 평면 방정식인 식 (5)를 이용하여 식 (7)과 같이 λ를 계산하여 최종적으로 점 P(x,y,z)의 위치를 얻을 수 있다.

(7) {nCTP=dCP=λv+OCλ=dCnCTOCnCTv

3.4 투영 변환 행렬 CTI

우리가 최종적으로 얻고자 하는 것은 영상 평면에 나타난 녹색 라인 레이저의 픽셀 위치를 3차원 카메라 좌표계로 변환하는 행렬을 얻는 것이다. 앞서 과정을 통해 영상 평면의 위의 점 p(u,v)를 카메라 좌표계 상의 3차원 점 P(x,y,z)으로 변환하는 과정을 유도하였다. 이를 이용하여 Fig. 1(b)에 영상 평면 위의 모든 녹색 점에 대응하는 카메라 좌표계 상의 점을 계산하여 식 (8)과 같은 관계식을 이용하여 투영 변환 행렬(CTI)을 얻을 수 있다.

(8) [xyz1]C=CTI[uv1]I=[t11t12t13t21t22t23t31t32t33t41t421][uv1]I

4. 성능 실험 및 결과 분석

제안된 무인잠수정에 장착이 용이한 영상 기반 레이저 스캐너의 성능 검증을 위해 실험을 수행한다. 2절에서 언급하였듯이 카메라와 라인 레이저 방사기는 무인잠수정의 형태 및 편의에 따라 임의의 위치에 설치하여도 된다. 본 실험에서는 제안된 방법의 성능 검증을 위해 Fig. 3(a)에서 보는 것과 같이 금속 프로파일 위에 카메라와 레이저 방사기를 단단히 고정하여 카메라-레이저 보정을 수행하고 성능을 검증한다. 그리고 좌우 스캐닝을 위한 자세 제어 구동기(Pose actuator)와 자세 센서(Pose sensor)를 추가 장착하여 Fig. 3(b)에서의 시험수조에서 Fig. 3(c)와 같이 물체와 레이저 스캐너를 수중에 설치 후 수중 물체에 대한 3차원 복원을 수행하여 본다. 해당 시험 장비의 전체 사양은 Table 1과 같다.

Fig. 3.

Vision based underwater laser scanner system

Specification of vision based laser scanner test-bed

4.1. 카메라와 라인레이저 보정 및 성능 분석

카메라와 라인레이저의 보정을 위해 Fig. 4와 같이 두 장의 체스보드 영상을 획득하였다. 체스보드는 가로 8개, 세로 8개의 교차점을 가지며 정사각형의 크기는 40mm이다. 카메라로부터 거리는 약 0.6m(Near)와 약 1.4m(Far)이다. Fig. 4(a)는 OpenCV 함수를 활용하여 체스보드 교차점을 검출한 결과이다(OpenCV, 2018). 이를 통해 얻어진 체스보드의 3차원 위치는 Fig. 5(a)와 같으며, Fig. 5(b)는 얻어진 체스보드의 3차원 위치를 영상 평면으로 재투영(Reprojection)하여 오차를 확인한 결과이다. 식 (9)는 얻어진 체스보드 평면 방정식이다.

Fig. 4.

Experiment of camera-laser calibration in water-tank

Fig. 5.

Analysis of projection matrix K and M

(9) {ar:0.0220375x0.013276y+0.999669z=641.048Far:0.00310779x85.0732y+0.999933z=1364.26

Fig. 4(b)와 같이 체스보드 평면에 투영된 녹색 라인 레이저를 검출한 결과는 Fig. 4(c)와 같다. 검출된 점의 개수는 총 34개이며, 식 (6)식 (7)을 이용하여 각 점에 대응하는 카메라 좌표계 상의 3차원 위치를 추정하였다. 그리고 영상 평면 위의 점과 추정된 카메라 좌표계 위의 3차원 점 사이의 투영 변환 행렬 CTI식 (10)과 같다.

(10) CTI=[0.4627710.001867224.442780.00243170.469019138.80210.01954040.045971301.257720.0013500.00006801]

얻어진 투영 변환 행렬을 검증하기 위해 두 가지 방법의 재투영 오차를 분석하였다. 첫 번째 방법은 레이저 평면에 재투영하는 방법이다. 얻어진 3차원 위치 점을 이용하여 레이저 평면을 검출한 후 3.3절에서 언급하였던 것과 같이 레이저 직선 v 와 레이저 평면의 교차점을 계산하여 3차원 위치를 계산하여 오차를 비교한다. 두 번째 방법은 일반적인 재투영 방법과 같이 CTI 를 이용하여 3차원 위치를 계산한다. Fig. 6은 이러한 방법을 이용한 재투영 오차 결과이다. 전체적인 오차 범위는 X축 < ±4mm, Y축 < ±2mm, Z축 < ±20mm 이내에 존재한다. X축과 Y축은 매우 작은 오차를 갖으나 Z축은 총 추정된 위치 중 약 20%이하에서 상대적으로 큰 오차를 갖는다. 이러한 이유는 Z축 방향에 대한 보정을 위해 다양한 정보가 주어지지 않았기 때문이다. 이에 다양한 거리의 체스보드 영상을 획득할 필요가 있다. 레이저 평면 재투영 오차의 평균오차는 5.08mm(σ2=3.78mm)이고, 투영 변환 행렬(CTI)에 의한 재투영 오차의 평균오차는 2.87mm(σ2=4.35mm)을 나타났다.

Fig. 6.

3D reprojection error of laser scanner test-bed

4.2. 수중 3차원 복원

보정이 완료된 레이저 스캐너를 이용하여 Fig.3-(b)와 같은 수중 환경에 대한 복원을 수행하였다. 복원 실험은 영상 기반 수중 레이저스캐너가 실제 복원을 위해 적합한가에 대한 검증을 위해 수행되었다. 자세 구동기를 이용하여 스캐닝을 하고 자세센서를 통해 자세 정보를 얻는다.

Fig. 7은 3차원 복원된 결과를 보여준다. 총 4개의 물체가 놓여있고, 왼쪽부터 원형기둥 1, 원형기둥 2, 사각기둥, 정육면체이다. Table 2는 개별 물체의 실제 크기와 레이저 스캐너에 의해 측정된 크기를 보여준다. 실제 크기와 측정된 크기의 오차를 보면 전체 물체에서 수 밀리미터 오차를 갖는다. 제안된 방법의 레이저 스캐너의 적용 분야에 따라 요구되는 측정 성능이 다를 수 있으나 3차원 물체에 대한 인식을 고려하였을 때 상기 오차는 물체 인식에 큰 영향을 주지 않는다. 전체적인 물체의 외형을 보면 실제 물체와 근접하게 복원된 것을 볼 수 있다. 또한, 원형기둥의 원모양과 사각기둥의 전방 좌/우면이 실제 물체와 매우 근접하다. 복원된 바닥면 및 물체 상단의 평탄도가 매우 균일하게 복원되었음을 확인할 수 있다. 이는 공간 분할 시 평면 검출 또는 평면 제거에 매우 유리한 결과를 얻을 수 있다.

Fig. 7.

Reconstruction result by laser scanning experiment (in meter)

Real and measured dimensions of 4 objects

5. 결 론

본 연구는 수중 정밀 계측이 가능하고 다양한 무인잠수정의 용도 및 형태에 맞게 조정 및 운용이 가능한 영상 기반 수중 레이저 스캐너를 제안함으로서 고품질 수중 3차원 정보 획득 및 무인잠수정의 현실적인 활용도를 높이고자 함을 그 목표로 한다. 이에 본 논문은 별도로 구성된 수중 카메라와 수중 라인 레이저 방사기를 무인잠수정의 용도 및 형태에 맞게 설치하여도 카메라-레이저 보정을 통해 정확한 3차원 정보를 획득할 수 있음을 검증 실험을 통해 분석하였다. 그리고 수중 레이저 스캐너의 적용 분야인 3차원 복원을 수행해 봄으로서 그 효용성을 확인하였다.

능동형 시스템인 수중 레이저는 수중 음향에 편중된 수중 센서의 한계를 극복하고 빛, 탁도에 의해 영향을 많이 받는 수중 광학 영상의 문제점을 극복할 수 있는 대안이 될 수 있다. 다만, 실질적인 해양 환경에서 강인한 계측 성능을 확보할 수 있는지에 대한 성능 검증을 계속해서 연구 개발 되어야 한다. 수중 레이저를 이용하여 안정적이고 정확한 정보 획득 및 소형화가 가능하여 무인잠수정 설치가 용이하며 이는 수중 활용에 매우 효과적인 장점을 갖는다. 이에 본 연구에서 개발된 수중 레이저 스캐너는 보유하고 있는 소형 무인잠수정에 탑재하여 수중 물체 복원 및 인식 등의 다양한 연구 분야에 적용할 계획이다.

Acknowledgements

본 연구는 선박해양플랜트연구소의 주요사업인 ‘수중 자율작업을 위한 3차원 물체인식 및 로봇-로봇 팔 운동보상제어 기반기술 개발’에 의해 수행 되었습니다(PES9400).

References

2G Robotics. 2016. ULS-100 Manual. [Online] Available at : <http://www.2grobotics.com/products/underwater-laser-scanner-uls-100/> [Accessed 26 August 2018.
3D at Depth. 2015. SL1/SL2/SL3 Product Sheet. [Online] Available at : <https://www.3datdepth.com/> [Accessed 26 August 2018.
Josep FC. 2004. New Methods for Triangulation-based Shape Acquisition using Laser Scanners. Ph.D. Thesis. Univesity of Girona; 150.
Jung J, Li JH, Choi HT, Myung H. 2016;Localization of AUVs Using Visual Information of Underwater Structures and Artificial Landmarks. Journal of Intelligent Service Robotics 10(1):67–76.
Kim A, Eustice RM. 2013;Real-time Visual SLAM for Autonomous Underwater Hull Inspection Using Visual Saliency. IEEE Transactions on Robotics 29(3):719–733.
Kim D, Lee D, Myung H, Choi HT. 2014;Artificial Landmark-based Underwater Localization for AUVs Using Weighted Template Matching. Journal of Intelligent Service Robotics 7(3):175–184.
Newton Labs. 2015. Underwater Laser Scanners Manual. [Online] Available at : <http://www.newtonlabs.com/subsea_scanners-1.htm> [Accessed 26 August 2018.
OpenCV. 2018. The OpenCV Library. [Online] Available at : <https://opencv.org/> [Accessed 26 August 2018.
Shukai C, Zexiao X, Wenzhu C. 2016;A Laser Line Auto- Scanning System for Underwater 3D Reconstruction. Journal of Sensors (MDPI) 16(9):1534.

Article information Continued

Fig. 1.

Coordinate system of vision based underwater laser scanner

Fig. 2.

Examples of laser scanner installation on UUV

Fig. 3.

Vision based underwater laser scanner system

Fig. 4.

Experiment of camera-laser calibration in water-tank

Fig. 5.

Analysis of projection matrix K and M

Fig. 6.

3D reprojection error of laser scanner test-bed

Fig. 7.

Reconstruction result by laser scanning experiment (in meter)

Table 1.

Specification of vision based laser scanner test-bed

Device Name Model Specification Purpose
Camera FLIR blackfly BFLY-PGE-23S6C-C 41 FPS at 1920×1080 Image acquisition
Line laser Global laser GreenLyte-MV-EXCEL 532 nm, 75° Laser projector
Sensor Tritech Intelligent gyro compass res. < 0.1°/ acc. < 1° Pose sensor
Actuator SIDUS pan / tilt SS109 Torque. 13.6 Nm Actuator

Table 2.

Real and measured dimensions of 4 objects

* H: height, D: depth, W: width

Object Real dimensions Measured dimensions
Cylinder 1 ϕ 75 mm, 150 mm (H) ϕ 72.5 mm, 145 mm (H)
Cylinder 2 ϕ 50 mm, 150 mm (H) ϕ 49.6 mm, 149 mm (H)
Square pillar 50 mm (W, D), 150 mm (H) 51.1 mm (W) 49.1 mm (D) 150 mm (H)
Cube 100 mm (W,D,H) 96.9 mm (W) 101.2 mm (D) 96 mm (H)