[기자수첩] 스마트폰 이어 차세대 디바이스 시대 ‘성큼’
구글·오픈AI, 새로운 AI 비서 발표 스마트폰보다 안경 등 웨어러블 기기에서 더 유용할 듯
[시사저널e=고명훈 기자] 2000년대 중반 스마트폰이 등장하면서 우리의 삶은 이전과 비교해 완전히 달라졌다. PC 위주였던 사람들의 인터넷 일상이 모바일 시대를 맞아 장소의 한계를 넘어선 것이다. 스마트폰을 IT산업의 디바이스 혁명이라고 부르는 이유다.
스마트폰 시대를 예견하고 기술을 꾸준히 준비해왔던 전자 부품업체들은 보란 듯이 날개를 펼쳤다. 스마트폰의 두뇌 역할을 하는 핵심 부품인 반도체부터 시작해 터치센서가 장착된 디스플레이, 고품질 사진 촬영이 가능한 카메라 모듈 등 모바일 기기 하나에 다양한 기능이 총집결되면서 많은 기업의 우수한 기술들이 모여들었다. 스마트폰 사양이 높아질수록 메인 제조사의 선택을 받기 위한 이들 업체의 기술 경쟁 또한 치열하게 펼쳐져 왔다.
스마트폰 시대는 20년 가까이 이어졌다. 이제 새로운 디바이스 시대가 문을 열 준비를 하고 있다. 일각에서는 내년 그 첫 번째 단추가 끼워질지도 모르겠다는 관측까지 나온다.
IT업계 글로벌 리더 구글과 챗GPT로 AI 혁명을 만들어낸 오픈AI가 차세대 디바이스 시대의 서막에 불꽃을 지폈다. 양사는 지난주 IT 역사에서 또 하나의 획을 긋는 큰 발표를 진행했다.
오픈AI가 구글보다 하루 앞서 ‘GPT-4o(omni)’라는 최신 거대언어모델(LLM)을 선보였다. 기존에 텍스트 위주로 대화하던 AI 비서에 눈과 입을 달아줌으로써 실시간으로 사용자와 소통을 가능하게 했단 점이 핵심이다.
오픈AI는 발표에서 새로운 AI 비서의 기능을 직접 시연했다. 시연에서 사용자가 GPT-4o가 장착된 스마트폰에 잠을 잘 수 있도록 이야기를 들려달라고 요청했다. AI 비서는 감정을 담아 다양한 톤으로 목소리를 바꿔가며 이야기를 들려줬다. 종이에 적힌 수학 문제를 보여주면서 풀어달라고 하자 이번에는 단계별 풀이 과정을 자세하게 써 내려간다.
다음날 구글도 연례 개발자 회의(I/O)를 열고, ‘프로젝트 아스트라(Project Astra)’란 새로운 AI 비서를 발표하며 시연 영상을 공개했다. 스마트폰이 내가 보고 있는 물건이 무엇인지 직접 음성으로 설명해주고, 컴퓨터 모니터에 비친 코딩 프로그램의 코드까지 해석해준다. 심지어 내가 못 보고 지나친 장면도 대신 기억해서 잃어버린 물건이 어디 있는지 알려준다.
이번 시연에서 공개된 두 회사의 AI 비서 기능은 모두 스마트폰이 수행했다. 자연스럽진 않았다. 손에 들고 다니는 모바일 기기에서 해당 기능이 얼마나 유용하게 쓰일지는 조금 의문이었다. 신체에 직접 착용할 수 있는 형태의 디바이스였다면 더 편리하게 해당 기능들을 활용할 수 있지 않을까 하는 생각이 들었다.
대표적으로 스마트안경을 꼽을 수 있다. 안경을 착용한 상태에서 내 눈을 통해 직접 보면서 AI 비서와 실시간으로 소통하는 것이다. 굳이 스마트폰을 꺼내지 않아도 내가 보고 있는 그대로의 상태에서 궁금한 점을 물어봤을 때 안경에 들어있는 AI 비서가 답을 해주는 형태다. 초소형 카메라 렌즈가 달린 스마트워치나 밴드, 더 나아가서 눈에 착용하는 렌즈가 될 수도 있겠다.
디바이스 크기가 점점 더 작아지는 한편, 처리해야 할 AI 성능은 고도화되고 있다. 앞으로 반도체, 디스플레이 등 전자 부품업계에서 할 수 있는 기회들이 무궁무진하단 것을 알 수 있다. 동시에 넘어야 할 과제들이 산더미처럼 쌓여 있다. 이 시대를 미리 준비한 곳만이 글로벌 IT산업의 새로운 리더로 부상할 수 있는 것이다. 스마트폰이 처음 등장했을 때처럼 말이다.