[이준정의 미래탐험] 가까운 미래, 로봇이 상황을 설명하게 된다
이코노믹리뷰 2015.01.22(목) 이준정 미래탐험연구소 대표
http://m.econovill.com/news/articleView.html?idxno=230552
<중략>
사람이 손으로 쓰거나 기계로 인쇄한 문서 이미지를 스캐닝하면 이미지가 문자로 표현된 문서파일로 바뀌는 기술이 광학문자인식(OCR) 기술이다. OCR은 인공지능이나 시각기계의 초기형태라 본다. 기계가 선의 패턴을 보고 같은 꼴을 한 글자로 변환시켜주는 기술이다. 이때 기계는 활자가 가진 의미를 알지 못한다. 다만, 지정된 언어의 활자 중에서 모양이 가장 일치하는 글자로 변환해 주는 역할만을 한다. 문장 중에서 인접한 단어가 오는 것이 어색한지를 분석하는 기술은 맞춤법을 기초로 한 문장해석기술이다. 예전엔 OCR 소프트웨어를 스캐너를 구매하면 함께 제공받았는데 최근엔 인터넷에서 공짜로 OCR 서비스를 받을 수 있다.
<중략>
시각지능은 물체를 인식하는 능력이다
<중략>
물체를 인식하는 소프트웨어는 물체의 형태가 뒤틀리고 배경이 흐려도 물체의 이름을 맞춰낸다. 따라서 여러 종류의 물체가 함께 있어도 각 물체의 모양을 구분해낼 수 있다. 휴머노이드 로봇이 장기를 둔다고 가정해 보자. 로봇에 미리 장기 알의 종류와 기능 그리고 게임의 법칙을 알려주면 로봇은 장기 알의 종류를 인식하면서 장기를 둘 수 있게 된다. 판을 읽고 어떤 장기 알을 옮겨야 상대를 제압할 수 있는지 작전을 세울 수도 있다. 휴머노이드 로봇이 움직이면서 상대를 인식하기 시작한 것도 ‘물체인식기술’의 발달 덕분이다. 물체뿐만 아니라 주변 환경도 인식하면서 동작의 범위나 동작 방향을 결정할 수 있다. 자율운전 차량이 스스로 운전을 할 수 있는 배경도 고속으로 변하는 주변 환경이나 물체를 인식하는 기술이 완벽해졌기 때문이다. 다만, 아직은 미리 입력된 물체만 인식할 뿐 새로운 물체를 스스로 판단하고 대응하지 못한다.
컴퓨터 시각인식기술의 목표는 시각장면을 이해하는 데 있다. ‘장면을 이해한다’는 의미는 ‘어떤 물체가 어떤 위치에서 어떤 상황을 연출하는지를 서술한다’는 의미다. 즉, 2차원은 물론 3차원 공간에서 물체들과 배경의 상호 관계를 의미 있게 해석해내야 한다. 사람이라면 주변의 복잡한 장면을 정확히 알아차리고 현재 무슨 일이 벌어지고 있는지 말로 설명해낼 수 있다. 로봇도 카메라에 포착된 장면 속의 여러 가지 물체들이 서로 어떻게 연관되고 있는지를 자연어로 표현해낼 수 있어야 사람과 진정한 대화가 가능해진다. 지금의 로봇들은 상황포착을 못 하니까 상대방의 말을 되받아치는 수준에 머물고 있다.
스탠포드대학교 연구팀이 개발한 소프트웨어가 식탁 사진을 보고 묘사한 표현들
사진 : http://cs.stanford.edu/people/karpathy/deepimagesent/devisagen.pdf
컴퓨터가 사진을 문장으로 설명한다
<중략>
로봇도 사물을 인식하고 기억하게 된다
인공지능이라지만 완전히 새로운 이미지를 만나면 소프트웨어가 정확히 알아채지 못한다. 다만, 새로운 이미지를 학습하는 기능이 있으므로 조금만 훈련을 하면 바로 적응해낸다고 한다. 구글은 이 기술을 이용해서 인터넷에 떠도는 모든 이미지와 영사물을 분석해서 계층화시키고 있다. 지금은 이미지나 영상을 사람들이 분류하고 있지만 머지않아 컴퓨터가 실시간 자동으로 이미지와 영상물을 분류해낸다고 한다. 기술적으로 유해한 영상물이라면 인터넷에 올리기 전에 미리 유튜브에서 걸러낼 수도 있게 된다. 구글은 이미 많은 국가의 정찰당국으로부터 유해 자료나 영상을 삭제해 달라는 부탁을 듣고 있다고 한다.
그림은 천 마디 말보다 더 깊은 정보를 담고 있다. 동물의 두뇌가 사물을 인식하고 기억하는 원리가 바로 이미지 처리 기억방식에 기초한다는 사실을 보면 쉽게 알 수 있다. 이미지를 말로 자동으로 정확하게 바꿔주는 기술은 인공지능 기술의 핵심이다. 인공지능 소프트웨어들이 학습할 수 있는 데이터베이스가 충실해질수록 이미지를 자연어로 표현하는 정확도는 높아진다. 날마다 웹 공간에 새롭게 등장하는 이미지와 영상물들은 이 인공지능 소프트웨어의 학습 자료다.
이 분야의 기술은 아직 태동기라고 연구자들은 말하고 있다. 로봇의 시각인식능력이 동물이나 사람 수준에 이르고 시야의 변화를 말로 표현해내기 위해서는 아직도 발전시켜야 할 영역이 너무도 많다. 하지만 기술의 진전속도로 보아서는 2020년경이면 로봇이 주변 상황의 변화를 스스로 설명할 수 있는 단계에 이를 수 있다고 본다.
'시사정보 큐레이션 > ICT·녹색·BT·NT外' 카테고리의 다른 글
LG경제연구원 "스마트폰 시장, '롱테일 경제학'으로 이동" (0) | 2015.01.25 |
---|---|
[세계경제포럼 2015] 에릭 슈미트 구글 회장 "IoT시대, 인터넷 사라질 것" (0) | 2015.01.25 |
구글, 올해 MVNO(가상이동통신망사업자) 사업 진출 예정...프로젝트 노바 (0) | 2015.01.23 |
오! 넷플릭스가 일깨워준 질문들...도대체 어떤 기업일까 (0) | 2015.01.23 |
다음카카오 페이지, 서비스 오픈 1년 8개월 만에 일일 매출 1억 돌파 (0) | 2015.01.23 |