J. Ocean Eng. Technol. Search

CLOSE


J. Ocean Eng. Technol. > Volume 27(3); 2013 > Article
증강현실 기반의 항행정보 가시화를 위한 영상해석 모듈

Abstract

This paper suggests a navigation information display system that is based on augmented reality technology. A navigator always has to confirm the information from marine electronic navigation devices and then compare it with the view of targets outside the windows. This "head down" posture causes discomfort and sometimes near accidents such as collisions or missing objects, because he or she cannot keep an eye on the front view of the windows. Augmented reality can display both virtual and real information in a single display. Therefore, we attempted to adapt AR technology to assist navigators. To analyze the outside view of the bridge window, various computer image processing techniques are required because the sea surface has many noises that disturb computer image processing for object detection, such as waves, wakes, light reflection, and so on. In this study, we investigated an analysis module to extract navigational information from images that are captured by a CCTV camera, and we validated our prototype.

1. 서 론

20세기 후반부터 증가된 해상 물동량과 함께 조선/항해 기술의 발달로 인한 선박의 대형화, 고속화는 각종 해난 사고를 증가시키게 되었으며 이를 통하여 인명 및 경제적 손실과 더불어 심각한 환경오염까지 초래하게 되었다. 이에 따라, 근본적인 해난 사고 예방을 위하여 새로운 운항 시스템이 필요하게 되었으며 전자해도표시 시스템(ECDIS, Electronic chart display and information system), 전자해도가 등장하게 되었고 위성항법이 의무화되었다. 기존의 전자해도는 종이해도를 전자화 시킨 것으로써, 국제수로기구에서 제정한 국제적 표준인 S-57에 의거하여 제작되었으며 여기에는 각국의 수로기관이 제작한 공인데이터가 사용되게 된다. 이러한 운항 지원 시스템의 도입으로 인하여 선박의 안전항해에 획기적으로 기여하게 되었으며 해양관련 산업의 활성화의 기반을 마련할 수 있게 되었다. 그러나 이러한 운항 지원 시스템의 도입에도 불구하고 현재 선박의 운항 사고는 대부분 운항사의 과실에 있다고 보고되고 있다. 2005년~2009년 사이에 일어난 해양안전심판원 재결서 413건을 분석한 결과 인적오류가 있는 사건의 경우는 409건으로 보고되고 있으며(Kim and Kwak, 2011), 우리나라 전체 해양사고 중 20%가 항만 및 주변해역에서 발생되고 있다고 보고되고 있다(Cho, 2003). 또한, UK P&I Club 에서 15년간 10만 불 이상의 손해배상이 청구된 6,091건의 상선 사고를 분석한 결과에 의하면, 62%의 사고가 인적 오류에 영향을 받은 것으로 보고되고 있으며(Anderson et al., 1997), 호주의 ATSB(Austrailian transportation safety bureau), 영국의 MAIB(Marine accident investigation board)와 캐나다의 TSB(Transportation safety board of canada)는 해양사고의 원인 분류 코드에 인적오류를 중요하게 반영시키고 있다. 2008년 국제해사기구에서 해양사고의 원인규명을 위한 "국제해양조사코드"를 내놓았으며, 해양사고와 준사고의 분석과정에서 인적오류에 대한 과학적 분석을 통해 해양사고의 근본적인 원인분석과 예방대책을 마련하기 위한 노력이 이루어지고 있다. 이에 따라 국제수로기구 및 국제해사기구에서는 e-Navigation에 대한 발의 및 표준화에 대한 내용이 논의가 되고 있으며 기존의 S-57에서 S-10x의 새로운 전자해도가 향후 표준으로 자리 잡게 될 것임을 보이고 있다. 본 연구는 이러한 인적오류의 예방대책으로써 항행정보의 가시화에 초점을 맞추고 있으며 향후 표준으로 자리 잡게 될 S-10x기반의 항행정보를 활용하고자 하였다.
항해사는 선교에서 운항 시에 ECDIS를 주로 보게 되며 연안에 근접하였을 경우 혹은 해상에 장애물 등이 있을 경우에 항행 장비와 선교 밖의 상황을 비교 판단하게 된다. 이때에 발생하게 되는 HDT(Head down time) 동안에 선교 밖의 상황을 주시하지 못하게 되는 상황이 발생하게 되며 아차사고가 발생하게 될 확률이 높아지게 된다. 또한, 시계가 불안정한 날씨에 항해사는 전적으로 레이더와 ECDIS장비에 의존하여 항해를 하게 되기 때문에 심적으로 불안한 상태에 놓이게 된다. 따라서 본 연구에서는 증강현실 기술을 바탕으로 항행관련 정보를 선교의 창에 가시화할 수 있는 항행정보 가시화 기술을 개발하고자하였으며 이를 통하여 HDT 시간을 줄이고 시계가 불안정한 상황 속에서 효과적인 항행 정보를 가시화 할 수 있도록 연구하고자 하였다. 증강현실 기술은 현실 이미지를 기반으로 가상의 정보를 정교하게 겹쳐서 가시화 할 수 있는 기술로서, 항해사로 하여금 선교에서 외부를 바라보고 있는 상태에서 항행정보를 동시에 인지할 수 있도록 지원할 수 있다. 이번 논문에서는 S-10x 기반의 항행정보를 가시화하기 전 단계로서, 증강현실 기술을 적용하기 위하여 영상처리를 기반으로 항행정보를 획득하기 위한 영상의 전처리와 영상해석에 대하여 다루고 있으며 수행된 내용을 바탕으로 프로토타입을 구축하고 그 타당성을 검증하고자 하였다.

2. 증강현실 기반의 항행정보 가시화 시스템

국제해사기구의 NAV(Sub-committee on safety of navigation) 54차 Work group report annex I에서는 e-Navigation 환경이 완성되었을 때의 모습을 제시하고 있으며 이와 함께 그 중 요성도 함께 언급하고 있다. 또한, 이에 맞추어 항행정보를 효과적으로 표시하기 위한 e-Navigation에 대한 연구가 이루어지고 있으며(Kim, 2008), 미해군에서는 ARVCOP(Augmented Reality Visualization of the Common Operational Picture)이라는 시스템을 구축하여 도입한 바 있다(Benton, 2011).

2.1 ARVCOP

ARVCOP은 TSI사에 의하여 개발된 바 있다. 미 해군에서는 어떠한 상황에서도 군작전의 성공적인 지원을 위하여 각 종 항행 장비를 통합하여 한 화면에 가시화 할 수 있도록 하였으며, 특히 시계가 불안정한 날씨에도 항로, 작전 수행을 위한 시계 정보를 증강현실 기술을 활용하여 제공함으로써 성공적인 작전 수행이 가능할 수 있도록 하였다. Fig. 1의 상단의 화면과 같이 작전 정보 및 항행정보를 하나의 화면에 동시에 제공함으로써 전방 주시 및 작전 시 집중도를 향상시킬 수 있었다고 평가되고 있으며 전시 정보의 중요성이 높아지고 있는바 지속적인 연구개발이 이루어지고 있는 실정이다.
Fig. 1

Integrated bridge system/virtual display mock up on the right hand side of the screen

HOGHC7_2013_v27n3_22_f001.jpg

2.2 해양환경에서의 영상기반 물체탐지 및 추적 기법 연구

국내에서도 해양환경에서의 물체를 탐지하고자 하는 많은 연구가 있었는데, 알파(ARPA)레이더를 이용하여 추적선박을 CCTV(closed-circuit television)로 식별이 가능하도록 지원할 수 있는 시스템(Lee, 2009)이 연구된 바 있으며 탐지된 물체를 칼만 필터를 이용하여 지속적으로 추적이 가능하도록 추적필터를 적용한 연구된 사례가 있다(Park el al., 2012). 해양환경에서는 자동차 도로와는 달리, 멀리 있는 대상에 대한 인식이 필수적이다. 카메라 기반의 영상처리를 기반으로 대상을 추적하게 될 경우 일정 거리 이상으로 멀어지게 되면 탐지를 할 수 없게 되는데, 이를 보완하기 위하여 움직임에 따른 방향성을 고려한 필터를 적용하여 일정시간 탐지가 되지 않더라도 예측하여 화면에 추적하여 제공할 수 있도록 하고 있다. Fig. 2는 이러한 내용을 칼만필터를 활용하고 구현한 결과를 보이고 있다. 본 연구에서는 해양 환경에서의 물표를 탐지하고 탐지된 물체를 식별하고 보정하기 위하여 선박 자동 식별장치(AIS, Automatic identification system)의 정보를 활용하자 하였으며 이미 알고 있는 대상을 기준으로 탐지하게 될 경우 좀 더 정확한 추적이 가능하게 된다.
Fig. 2

The results of object tracking by Kalman filter: (a) with detected object and (b) without detected object

HOGHC7_2013_v27n3_22_f002.jpg

3. 증강현실 기반의 항행정보 가시화 시스템

항행정보를 가시화하기 위하여 한국해양과학기술원(KIOST)과 항행안전 서비스 요소를 도출하고 있으며 자선정보, 타선정보, 항로정보, 항로표지정보, 환경정보, 조종특성 정보로 그 특성을 나누었다. 이러한 항행관련 정보는 ECDIS로 통합되어 제공받을 수 있으며 선교 밖의 실제 화면에 정합되어 사용자에게 표시된다. 선박의 위치, 대지속력 등은 GPS(Global positioning system)/DGPS(Differential GPS)로부터 획득하고 해상 이동업무 식별번호(MMSI, Maritime mobile service identify), 항해 상태 등은 선박 자동 식별장치의 수신기로부터 획득 가능하다. 선교 밖의 정보를 인식하기 위하여 카메라를 활용하여 영상을 입력받고 컴퓨터 영상처리를 통하여 대상을 식별 할 수 있도록 하고자 하였다.

3.1 증강현실 기반 항행정보 가시화 시스템 개요

증강현실(Augmented reality, AR) 기술은 현실세계를 기반으로 컴퓨터가 생성한 가상의 정보를 정교하게 정합하여 한 화면에서 두 개 이상의 정보를 동시에 사용자에게 제공할 수 있는 가시화 기술이다. 증강현실은 가상현실과 현실세계의 중간 형태로써 (Milgram, 1994), 항공, 자동차 산업 등에서 연구가 되어 왔으며 최근 조선에서도 이러한 융합연구가 진행되고 있다. 증강현실 기반의 항행정보 표시를 위해서는 기본적으로 카메라 영상을 기반으로 수행이 되어야 한다. 선교에서 항해사가 바라보는 영상을 카메라를 통하여 입력 받은 이후, 영상처리를 통하여 대상을 인식하고 그 위에 항행장비로부터 획득한 정보들을 효과적으로 정렬하여 가시화함으로써, 사용자에게 HDT시간을 줄일 수 있는 장점을 제공하고 시계가 불안정한 상황에서도 가상의 정보들을 화면에 투영시킴으로써 항해사에게 안정감을 제공할 수 있다. Fig. 3은 본 논문에서 제시하고자 하는 증강현실 기반의 항행정보 가시화의 개념을 보이고 있다.
Fig. 3

Concept of AR navigation system

HOGHC7_2013_v27n3_22_f003.jpg

3.2 증강현실 기반 항행정보 가시화 시스템 구성

Fig. 4는 본 논문에서 제시하고자 하는 증강현실 기반 항행정보 시스템을 구성하기 위한 내용을 나타내고 있다. 항행 영상은 CCTV카메라를 통하여 획득이 가능하다. 본 연구에서는 선교가 선박의 선수에 있는 선박, 즉 연안을 주로 왕복하는 선박을 대상으로 하고 있다. 선교가 선미에 있는 선박, 즉 컨테이너선과 같은 선박에서는 선교에 CCTV를 설치하여 바라보았을 경우 선수 부분이 영상처리의 정확도를 저해할 수 있는 요소로 작용할 수 있으며 마스크(Mask)와 같은 추가적인 영상처리 기법이 필요하게 된다.
Fig. 4

System configuration of AR navigation

HOGHC7_2013_v27n3_22_f004.jpg
CCTV카메라를 통하여 획득된 영상은 해양환경 특성상 많은 잡음을 포함하고 있으며 이러한 영상으로부터 수평성과 물표를 검출하기 위하여 영상 전처리 과정을 거치게 된다. 영상 전처리는 가우시안 흐림 효과 및 영상의 평활화 등의 과정을 포함하고 있으며 세그먼테이션과 같은 영상처리 이후에 수평선 및 물표와 같은 정보를 검출할 수 있게 된다. 본 논문에서는 이러한 과정을 Image processing이라 하며 검출된 결과를 AIS(Automatic identification system)정보와 맵핑하여 물표의 정보를 함께 가시화 할 수 있게 된다. 본 논문에는 포함되어 있지 않으나, 사용자가 바라보는 관점에서 물표정보를 효과적으로 가시화하기 위하여 증강현실 기술을 적용하고자 하였으며 카메라의 위치에 따른 자세추정(Pose estimation)과 탐지된 물체의 지속적인 추적(Tracking)이 이에 해당한다. 선박에 부착되어 있는 각 종 항행을 위한 센서를 포함하여 대부분의 항행정보는 ECDIS를 통하여 획득이 가능하나 본 연구에서는 그 타당성을 먼저 검증하기 위하여, AIS의 디코딩 된 데이터만을 활용하고 있다.

4. 항행정보 검출을 위한 영상해석

본 연구에서는 영상해석 단계를 수평선 검출, 물체 검출, 물체 인식의 3단계로 나누어서 모듈을 구성하고자 하였다. 카메라를 기반으로 하는 해상에서의 물체 탐지 및 방향성을 고려한 정보의 정합을 위해서는 복잡한 영상처리 과정이 필요하다. 해상의 물체를 검출(Detection)하기 위해서는 영상 평활화, 가우시안 필터, 팽창(Dilate)/침식(Erode) (Sonka, et al., 2007)등의 잡음제거 과정을 포함하여 윤곽선 검출 및 직선 검출을 위한 라플라시안 필터 및 Hough transform(Zabala, 2006), 그리고 물체의 효과적인 추적을 위한 칼만 필터 등이 적용되고 있다. 이러한 영상처리 과정은 일반 증강현실 기술이 가지는 내용과 동일하나 물체를 인식(Identification)하는 과정에 있어서는 좀 더 다른 접근이 필요하다. 일반적으로 물체를 인식하기 위해서는 원본 영상과 비교를 위하여 템플릿매칭(Template matching) 혹은 SURF(Speeded up robust features)/ SIFT(Scalar invariant feature transform) 등의 알고리즘이 적용된다. 그러나 해상에서는 파도 및 항적과 해수면 반사등의 다양한 잡음이 물체를 인식하는데 방해되는 요소로 작용하고 있으며 선교에서 카메라를 통하여 바라보았을 때 외부의 물체를 인식하기 위해서는 충분히 가까워야 하지만 대부분 그렇지 못한 경우가 많다. 특히, 상대적으로 속도가 빠른 대형 컨테이너선과 같은 경우 회전 반경이 3km 정도로 크기 때문에 멀리 있는 대상에 대한 정보도 효과적으로 지원이 가능해야한다. 효과적인 운항 지원을 위해서는 시야 확보가 충분하지 못한 상황을 포함하여 시야에 들어오기 시작했을 때부터 물체의 검출과 인식이 가능해야한다. 따라서 기존의 영상처리 방법만으로는 한계가 있으며 ARPA 레이더, AIS 등의 기타 항행장비와 연계를 하여야 한다.

4.1 영상해석 모듈 개발 개요

항행정보를 가시화하기 위하여 본 논문에서는 영상처리를 통하여 영상을 분석하고 그 결과를 항행정보와 비교하여 그 대상을 선별하고자 하였다. 이를 구현하기 위하여 영상해석은 영상전처리 단계를 포함하고 있으며 모듈의 주요 결과물은 수평선 위치와 영상해석을 통하여 구분된 물체의 위치 정보가 된다. Fig. 5는 모듈의 세부 흐름을 보이고 있다.
Fig. 5

Development configuration of the image processing module

HOGHC7_2013_v27n3_22_f005.jpg

4.2 영상해석 기능별 구현 내용

본 논문에서는 영상해석 구현을 위하여 OpenCV(Open computer vision)를 활용하였고 윈도우7 환경에서 테스트가 수행되었다. 4.1의 Fig. 5에서 소개된 영상해석 모듈의 세부 내용을 소개하면 다음과 같다.

4.2.1 수평선 검출

현재 항행 중인 선박의 위치정보를 획득하기 위해서는 영상 처리만으로는 불가능하기 때문에 GPS정보를 포함하여, AIS, Gyro compass 등이 요구된다. 또한, 이러한 정보만을 활용하여 정보를 가시화 한다면 선교에서 항해사가 바라보는 관점에서는 오차가 발생하게 된다. 따라서 영상처리를 통한 물체를 인식과정을 거쳐 각 종 항행 정보를 맵핑한다면 보다 정확한 정보를 항해사에게 가시화 할 수 있게 될 것 이다. 이러한 정보를 효과적으로 검출하기 위하여 수평선을 검출할 필요성이 있으며 관련 기존 연구로써 Pixel profile 분석 기법을 이용하여 검출한 사례가 있고(Wang, et al., 2011), 수평선 검출영역을 한정하기 위하여 Inertial power station을 이용한 사례가 있다(Hugues, 2011). 본 논문에서는 영상에서 효과적으로 수평선을 검출하기 위하여 영상의 관심영역(ROI, Region of interest)을 설정하여 수평선을 검출하고자 하였다. 수평선을 검출하기 위한 ROI는 선박에 설치되어 있는 카메라의 위치에 따라 다르게 적용 될 수 있다. Fig. 6는 수평선을 검출하기 위한 과정을 주요한 과정을 보이고 있다. 수평선은 대체로 음영이 급격하게 변하는 지점에 존재한다. 따라서 영상처리를 수행하기 위하여 흑백 영상으로 전환하고 (a), 영상을 뚜렷하게 하기 위하여 히스토그램을 평활화 하였다 (b). 이를 이용하여 임계값을 자동으로 계산하여 이진화를 수행하고 (c), Canny edge와 Hough transform을 적용하면 수평선의 검출이 가능하다(d). 여기에 수평선의 검출 정확도를 높이기 위하여 ROI를 적용할 수 있으며 HSV(Hue saturation value) 공간에도 수행이 가능하다.
Fig. 6

Horizon line detection process

HOGHC7_2013_v27n3_22_f006.jpg
Fig. 7은 수평선이 불명확한 상황에서 ROI를 적용하여 검출한 결과이다. 안개와 같이 흐릿한 시야를 갖는 날씨에서는 수평선에 대한 인식이 어려우며 영상처리 방법에 따라, 특히 임계점의 수치에 따라 다양한 오차를 가져다주게 된다. 수평선은 기본적으로 선박의 흘수에 따라 항상 고정이 되어 있거나 변화의 폭이 적으므로 초기 수평선의 위치를 기억하여 ROI 영역을 설정할 수 있다. 또한, 수평선의 검출 원리는 영상에서 밝기의 변화 폭이 가장 높은 곳을 우선적으로 찾게 되기 때문에 Fig. 6과 같이 안개등의 이유로 인하여 밝기의 차가 수평선 아래에 위치하게 된다면, 검출이 실패하게 된다. 따라서 이를 보정하기 위하여 ROI영역을 설정하게 되면 보다 정확한 수평선을 검출할 수 있게 된다.
Fig. 7

Horizon line detection by using ROI

HOGHC7_2013_v27n3_22_f007.jpg

4.2.2 물체 검출

검출된 수평선은 물체를 필터링하는데 활용할 수 있다. 해상의 물표는 대부분 수평선 아래에 있기 때문에 수평선 위의 부분에 대해서는 무시하거나 검출하지 않도록 할 수 있다. 해상에서의 빛의 반사효과나 파도와 항적은 다양한 노이즈를 생성하며 이는 영상처리를 어렵게 만드는 요인이 된다. Fig. 6 (c)를 보면 영상 아래에 노이즈가 많은 것을 볼 수 있으며 이는 물체를 검출할 때에 목적하지 않은 물체로써 검출이 될 가능성이 높다. 따라서 이를 위하여 노이즈를 제거하기 위한 방법인 가우시안 흐림(Gaussian blurring)을 수행하기도 하나 해양 환경에서는 멀리 떨어져 있는 물체의 경우 흐림 효과(Blur)를 수행하게 되면 같이 사라져 버리는 문제가 발생하게 된다. 따라서 보다 효과적으로 물체를 검출하기 위하여 Saliency map (Laurent et al., 1998)을 활용하여 물체를 검출하고자 하였다. Saliency map 모델은 영상처리에서 관심영역을 찾는 하향식 방법으로써 영상에서 컬러, 밝기, 윤곽선의 차이가 심한 영역을 먼저 찾는 것을 기초로 한다.
Fig. 8은 Saliency Map 이미지로 변환 후 (b), 이진화 처리 후에 (c), 레이블링을 수행한 결과이다 (d). Fig. 8의 결과에 의하면 영상의 가운데는 멀리 선박이 보이고 있으며 우측에 가장 가까운 섬이 보이고 있다. 그리고 영상의 상단에는 구름 사이로 빛이 비추고 있으며 상대적으로 밝기의 차이가 심하기 때문에 Saliency Map에 반영이 되고 있다. 이는 수평선 검출 후 필터링을 수행하여 제거 할 수 있다.
Fig. 8

Object detection process

HOGHC7_2013_v27n3_22_f008.jpg

4.2.3 물체 인식

검출된 대상에 대한 정보를 맵핑하기 위하여 AIS의 MMIS(Maritime mobile service identity) 및 위도와 경도 값을 활용하고자 하였다. 선박에 설치된 카메라를 중심으로 현재 선박의 위치와 선수방향으로 CCTV 카메라의 FOV (Field of view) 내에 존재하는 물표를 선별하게 된다. AIS는 기본적으로 GPS정보를 활용하고 있으며 동일한 위성을 사용하게 될 경우 그 오차도 동일하다고 알려져 있다. DGPS (Differential GPS)도 이를 이용하고 있으며 따라서 위경도를 이용한 거리는 FOV를 이용한 필터링에 사용될 수 있다. Fig. 9은 카메라 FOV를 이용한 대상 필터링에 관한 것으로, 현재 선박을 중심으로 물표를 나열한 후 관심 영역 내에 있는 정보만을 필터링하고 있다. 본 논문에서는 항행정보를 가시화하기 위해서 현재 사용자의 시야에 있는 물표에 대해서만 관심이 있으며 물표를 탐지하기 위하여 영상처리를 수행하였다. 영상처리 결과는 해당 영상에 보이는 특정 영역에 대한 정보만 포함하고 있기 때문에 이러한 영역이 물표인지 확인해야할 필요성이 있으며, 현재 사용자가 바라보는 영역에 대한 AIS 정보와 비교함으로써 이를 필터링하고자 하였다. 본 논문에서는 포함되고 있지 않으나, 영상처리 결과를 기반으로 선박인지 부표인지를 구분할 수 있는 인식모듈을 추가함으로써 물체의 인식 정확도를 높일 수 있다. 현재, Haar-like feature를 활용하여 선박 인식률을 개선하기 위한 연구가 진행 중에 있다.
Fig. 9

Object filtering by using FOV

HOGHC7_2013_v27n3_22_f009.jpg

5. 영상해석 결과

현재 ROI는 영상에서 중간의 35%정도로 하였으며, 아래 그림은 수평선 검출된 결과와 해상 부표의 물체를 인식한 결과를 보이고 있다. 아래 영상은 인천 영종도-신도를 왕복하는 선박에서 촬영한 영상을 활용하였다. 문턱값(Threshold)을 이용한 이진화 과정에서의 획득된 물체의 정확도 보다 Saliency map 모델을 활용한 물체의 탐지가 보다 정확하게 물체를 탐지하고 있었다.
Fig. 10의 영상에서는 물표가 하나 밖에 없으므로 탐지된 물체를 쉽게 필터링 할 수 있으나 Fig. 8과 같이 다수 개의 물체가 검출 된 경우에는 정확도가 떨어지게 되었다. 특히, 갈매기와 같은 조류와 부표 및 선박을 서로 구분하기 위해서는 레이블링 된 영상에 대하여 대상을 구분 할 수 있는 필터가 추가로 적용 되어야 할 것으로 보인다. 이를 보완하기 위하여 Adaboost, Harrlike feature를 이용한 인식 알고리즘을 적용 할 예정이다(Viola and Jones, 2004).
Fig. 10

Horizon and object identification

HOGHC7_2013_v27n3_22_f010.jpg

6. 결 론

본 연구는 S-100기반의 항행정보를 증강현실 기술을 활용하여 항해자가 선교 외부의 모습과 항행정보를 동시에 볼 수 있도록 투명디스플레이에 가시화하고자 하는 연구과제의 중간 결과물로서 영상처리를 기반으로 항행영상에서 정보를 추출하고자 하였다. 그리고 증강현실 기반의 항행정보 가시화를 위하여 영상해석에 대하여 연구하였으며 수평선과 수면위의 물체를 검출하고 AIS정보를 활용하여 물체를 인식하는 모듈을 구현하였다. 향후에는 물체 탐지 정확도를 향상시키기 위하여 Adaboost를 이용한 물체 인식 알고리즘을 보완할 것이다. 그리고 3차원 항행정보를 표현하기 위하여 카메라 좌표계와 실세계 좌표의 관계를 Homography로 표현하고 ECDIS로부터 각 종 항행 정보를 획득하기 위한 인터페이스를 연구하고자 하며 투명디스플레이에 적용하기 전에 CCTV기반의 프로토타입을 구축하여 선행 적용하고자 한다.

NOTES

It is noted that this paper is revised edition based on proceedings of KAOST 2012 in Yeosu.

감사의 글

본 논문은 지식경제부의 산업융합원천기술개발사업 [국제 해양 GIS 표준기술 기반 차세대 항행 정보지원 시스템 기술 개발 (10041790)]과 인하대학교의 지원으로 연구됨.

References

Anderson, D.E., Oberman, F.R., Malone, T.B., Baker, C.C.. (Influence of Human Engineering on Manning Levels and Human Performance, Naval Engineers Journal, 1997). 109(6):67-76 10.1111/j.1559-3584.1997.tb02373.x.
crossref
Benton, C.. (The Tactical Application of Integrated C4ISR and Navigation Systems Technology Systems Inc, 2011.

Cho, D.O.. (A Study on Port Safety Management System between Korea and Japan, Ocean Policy Research, 2003). 18(1):97-122.

Hugues, O., Furtht, Borko. (GIS and Augmented Reality: State of the Art and Issues. Handbook of Augmented Reality 2011). p 850.

Itti, L., Koch, C., Niebur, E.. (A Model of Saliency-Based Visual Attention for Rapid Scene Analysis, IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998). 20(11):1254-1259 10.1109/34.730558.
crossref
Kim, D.J., Kwak, S.Y.. (Evaluation of Human Factor in Ship Accidents in the Domestic Sea, Journal of the Ergonomics Society of Korea, 2011). 30(1):87-98 10.5143/JESK.2011.30.1.87.
crossref pdf
Kim, J.M.. (Design Methodology: Focus on Advanced Shipbuilding, IT SoC, 2008). 27, 40-47.

Lee, D.J.. (Automatic Identification of ARPA Radar Tracking Vessels by CCTV Camera System, Journal of the Korean Society of Fisheries Technology, 2009). 45(3):177-187 10.3796/KSFT.2009.45.3.177.
crossref pdf
Milgram, P., Takemura, H., Utsumi, A., Kishino, F.. (Augmented Reality: A Class of Displays on the Realityvirtuality Continuum. Telemanipulator and Telepresence Technologies SPIE 1994). 2351: 282-292.

Park, J.H., Jin, H.K., Nam, S.S.. (A Study on Visionbased Object Detection and Tracking in a Marine Environment Proceeding of KAOSTS 2012). 510-513.

Sonka, M., Hlavac, V., Boyle, R.. (Image Processing, Analysis, and Machine Vision 2007.

Viola, P., Jones, M.. (Rapid Object Detection Using a Boosted Cascade of Simple Features, TR2004-043 Mitsuvishi Electric Reserch Laboratories; 2004). Available at: <http://www.merl.com> [Accessed 25 April 2013].

Wang, H., Wei, Z., Wang, S., Ow, C.S., Ho, K.T., Feng, B.. (A Vision-based Obstable Detection System for Unmanned Surface Vehicle. Robotics, Automation and Mechatronics (RAM) 2011 IEEE Conference on Qingdao, China: 2011). 364-369.

Zabala, F.A.. (Hough Transform Implementation in Roll Stability Control of UAVs 2006.



ABOUT
ARTICLE CATEGORY

Browse all articles >

BROWSE ARTICLES
AUTHOR INFORMATION
Editorial Office
President Office BD Rm. 1302, 13 Jungang-daero 180beon-gil, Dong-gu, Busan 48821, Republic of Korea
Tel: +82-51-759-0656    Fax: +82-51-759-0656    E-mail: ksoehj@ksoe.or.kr                

Copyright © 2019 by The Korean Society of Ocean Engineers. All rights reserved.

Developed in M2community

Close layer
prev next