오픈에이아이(OpenAI), 인공지능으로 사람 손동작 구현 성공

[외신]오픈에이아이(OpenAI), 인공지능으로 사람 손동작 구현 성공

2553
SHARE

 

비영리 인공지능연구소 ‘오픈에이아이(OpenAI)’는 스스로 사람의 손동작 구현하는 인공지능 시스템을 성공적으로 개발했다고 전했다.

사람은 태어나서 자연스럽게 손으로 무언가를 움켜쥐는 것을 배우지만, 이 움켜쥐는 행위는 생각보다 단순하지 않다. 어린아이에게는 손을 벌리고 닫는 수준에 그칠지 몰라도, 다 큰 성인의 손은 정교하며 변수가 많다.

일론 머스크와 샘 알트먼에 의해 후원을 받는 OpenAI의 연구원들은 “최근 이러한 변수들을 성공적으로 시스템화하며, 인공지능이 사람의 손동작을 스스로 구현할 수 있게 했다”라고 설명했다.

인공지능 로봇은 이미 특정 행위에 숙달되어 있다. 대부분 단순한 행위의 반복일 뿐이지만 사람보다 더 민첩하게 총을 쏠 수 있을 만큼 배운 것을 정교하고 확실하게 수행한다. 하지만 아쉽게도 특정 움직임에 호환되는 각각의 소프트웨어는 굉장히 한정적이며, 아무리 비슷한 종류의 동작이어도 새로운 소프트웨어가 필요하다.

사람의 움직임과도 차이가 있다. 사과를 집을 때와 컵을 집을 때 비슷한 움직임을 사용하지만, 단순히 물체가 바뀐다고 해서 개별적인 행위로 나뉘어 배정되지 않는다. 대신 두뇌가 자동으로 물체를 인식하고, 차이점을 보완하여 물건을 안전하게 집는다. 그에 반해 인공지능 로봇은 사람처럼 변수에 유동적이지 못하다. 주어진 것을 단순하게 수행하며, 변화에 치명적이다. 그렇다고 해서 수천 개의 변수를 일일이 훈련할 수도 없는 노릇이다.

오픈에이아이의 측은 이 문제점에 대한 해결책으로 사람의 행동 데이터를 일절 배제했다고 전했다. 그 정보를 대신해 반복적으로 컴퓨터 시뮬레이션을 돌리며, 인공지능이 성공과 실패를 통해 천천히 손가락을 움직이는 법을 배울 수 있게 했다고 설명했다.

시뮬레이션에 사용되는 ‘덱틸(Dactyl)’ 시스템은 가상공간 속 손가락 위치 좌표와 3대의 카메라를 중심으로 이루어져 있다. 컴퓨터는 실시간으로 작동하지 않으며, 단 몇 초 안에 물체를 잡는 수천 가지 방법을 시도하고 분석한다.

덱틸 시스템은 인공지능이 최대한 많은 변수를 경험할 수 있기 위해 여러 가지 물체와 자세 외에도 손가락 끝의 마찰 양, 조명, 주변 환경의 색상과 같은 변화를 준 것으로 알려졌다. 또한, 6천 144 개의 중앙처리장치(CPU)와 8개의 고성능 그래픽카드(GPU)를 사용하여 인공지능이 50시간 만에 약 100년의 경험을 쌓았다고 한다. 이때 비로소 처음으로 인공지능이 인간과 비슷한 움직임을 구현한 것이다.

텍틸 시스템의 좋은 점은 인공지능의 기술이 특정 모양이나 물체에 한정되어 있지 않다는 것이다. 텍틸 시스템 속 시행착오를 통해 독립적이고 자연스럽게 손을 쓰는 방법을 터득한 인공지능은 모든 물건을 자유자재로 만지고 조작할 수 있다.

오픈에이아이는 실제 생활 속 상호 작용을 하는 모든 인공지능에 이러한 유연성을 일반화해야 한다고 주장했다. 행동과 물체별로 모든 것을 코딩하는 것이 불가능 하므로, 앞으로는 스스로 적용하고 배워나가는 로봇이 되도록 도와야 한다고 말했다.

Gripping something with your hand is one of the first things you learn to do as an infant, but it’s far from a simple task, and only gets more complex and variable as you grow up. This complexity makes it difficult for machines to teach themselves to do, but researchers at Elon Musk and Sam Altman-backed OpenAI have created a system that not only holds and manipulates objects much like a human does, but developed these behaviors all on its own.

Many robots and robotic hands are already proficient at certain grips or movements — a robot in a factory can wield a bolt gun even more dexterously than a person. But the software that lets that robot do that task so well is likely to be hand-written and extremely specific to the application. You couldn’t for example, give it a pencil and ask it to write. Even something on the same production line, like welding, would require a whole new system.

Yet for a human, picking up an apple isn’t so different from pickup up a cup. There are differences, but our brains automatically fill in the gaps and we can improvise a new grip, hold an unfamiliar object securely and so on. This is one area where robots lag severely behind their human models. And furthermore, you can’t just train a bot to do what a human does — you’d have to provide millions of examples to adequately show what a human would do with thousands of given objects.

The solution, OpenAI’s researchers felt, was not to use human data at all. Instead, they let the computer try and fail over and over in a simulation, slowly learning how to move its fingers so that the object in its grasp moves as desired.

The system, which they call Dactyl, was provided only with the positions of its fingers and three camera views of the object in-hand — but remember, when it was being trained, all this data is simulated, taking place in a virtual environment. There, the computer doesn’t have to work in real time — it can try a thousand different ways of gripping an object in a few seconds, analyzing the results and feeding that data forward into the next try. (The hand itself is a Shadow Dexterous Hand, which is also more complex than most robotic hands.)

In addition to different objects and poses the system needed to learn, there were other randomized parameters, like the amount of friction the fingertips had, the colors and lighting of the scene and more. You can’t simulate every aspect of reality (yet), but you can make sure that your system doesn’t only work in a blue room, on cubes with special markings on them.

They threw a lot of power at the problem: 6144 CPUs and 8 GPUs, “collecting about one hundred years of experience in 50 hours.” And then they put the system to work in the real world for the first time — and it demonstrated some surprisingly human-like behaviors.

The things we do with our hands without even noticing, like turning an apple around to check for bruises or passing a mug of coffee to a friend, use lots of tiny tricks to stabilize or move the object. Dactyl recreated several of them, for example holding the object with a thumb and single finger while using the rest to spin to the desired orientation.

What’s great about this system is not just the naturalness of its movements and that they were arrived at independently by trial and error, but that it isn’t tied to any particular shape or type of object. Just like a human, Dactyl can grip and manipulate just about anything you put in its hand, within reason of course.

This flexibility is called generalization, and it’s important for robots that must interact with the real world. It’s impossible to hand-code separate behaviors for every object and situation in the world, but a robot that can adapt and fill in the gaps while relying on a set of core understandings can get by.

As with OpenAI’s other work, the paper describing the results is freely available, as are some of the tools they used to create and test Dactyl.

Comments

매일 올라오는 외신 기사를 담당하고 있는 고경아입니다. 신기하고 유용한 정보를 신속하게 전달하겠습니다.