인공지능이 보다 안전하게, 인간처럼 볼 수 있는 ‘주변 시야’ 능력 부여!...MIT 연구팀, 대규모 데이터셋 오픈소스로 공개
다른 연구자와 개발자들이 공개적으로 사용 가능한 데이터 세트로 인간의 시각을 정확하게 모델링하는 데 더 가까워지고 심층신경망(DNN)이 인간의 시각 처리 속성을 더 큰 이점으로 얻을 수 있는 기반이 되기를...
'주변 시야(Peripheral vision)' 통해 인간은 비록 디테일은 떨어지더라도 직접 시야에 들어오지 않는 주변 형상을 볼 수 있다. 이 기능은 시야를 넓혀주며, 측면에서 다가오는 차량을 감지하는 등 여러 상황에서 유용하게 사용된다.
그러나 인간과 달리 인공지능(AI)은 '주변 시야'라는 개념이 없다. 컴퓨터 비전 모델에 이 기능을 탑재하면, 접근하는 상황과 위험을 더 효과적으로 감지하거나 인간 운전자처럼 다가오는 물체에 집중할지 여부를 판단하는 데 우선순위 결정에 도움이 될 수 있다.
한 걸음 더 나아가 MIT 연구팀은 인간 주변 시야에서 인공지능이 시뮬레이션하고 사용 가능한 정보를 캡처하기 위해 변환된 이미지를 포함하는 대규모 이미지 데이터 세트 ‘COCO-Periph’를 구축하고 오픈소스로 공개했다. 또한 이 데이터세트로 모델을 학습시키면 시각 주변부의 물체를 감지하는 모델의 능력이 향상되었지만 여전히 사람보다 성능이 떨어졌으나 인간과 달리 객체의 크기나 장면의 시각적 혼란이 AI의 성능에 큰 영향을 미치지 않는다는 사실도 확인했다.
출처 : 최창현, 인공지능신문(https://www.aitimes.kr)
뉴스바로가기 : https://www.aitimes.kr/news/articleView.html?idxno=30567