[비즈한국] WWDC24의 키노트는 그 어느 때보다 숨가빴습니다. 키노트 영상이 시작되기 전 무대에 오른 크레이그 페더리기 부사장은 “오늘 발표의 내용이 너무 많아서 특유의 농담과 여유가 없을 것”이라고 너스레를 떨었습니다. 그리고 정말 숨 넘어갈 것 같은 발표가 이어졌습니다.
특히 두 시간으로도 벅찰 운영체제들에 대한 소개를 한 시간 만에 마칠 때는 ‘인공지능에 대한 이야기가 얼마나 많길래…’라는 걱정도 들었습니다.
그리고 애플은 기대처럼 WWDC24를 통해 새로운 운영체제와 함께 인공지능 플랫폼인 애플 인텔리전스를 공개했습니다. 애플은 이를 통해 생성형 AI와 대규모 언어모델이 운영체제 안에 매끄럽게 녹아내리고, 기기의 주요 서비스와 앱 생태계를 통해 새로운 경험을 만들어낼 수 있도록 새 운영체제를 구성했습니다.
#애플의 인공지능, 애플 인텔리전스
이름을 잘 지었다는 생각이 듭니다. 인공지능은 AI, ‘Artificial Intelligence’를 줄여서 쓰곤 하는데, 애플은 이를 비틀어 ‘Apple intelligence’라는 이름을 붙였습니다. 인공지능과는 조금 결이 다른 애플의 지능형 서비스라고 해석할 수 있을 듯합니다.
그럼 애플 인텔리전스는 무엇을 할 수 있을까요? 현재로서는 이미지 생성형 AI와 언어 모델이 핵심입니다. 기술적으로는 우리가 잘 알고 있는 오픈AI의 챗GPT를 떠올리면 어느 정도 비슷합니다. 하지만 기술의 목표와 방향성에는 분명 큰 차이가 있습니다.
애플은 다섯 가지 원칙을 이야기합니다. 인공지능 기술이 ‘강력한 역량’으로 ‘직관적이고 쉽게’, 제품 사용 경험 전체에 ‘자연스럽게 녹아 들어가도록’ 만드는 겁니다. 그 안에서 철저히 ‘개인화’되면서도 ‘사생활 보호’라는 원칙을 지키는 것이지요. 사실상 프라이버시와 인공지능은 여러 부분에서 부딪치게 되는데 애플이 이를 풀어내는 방법은 모두가 기대하던 부분입니다.
기본적으로 애플 인텔리전스는 기기 안에서 애플 프로세서로 작동합니다. 온 디바이스 AI를 중심에 둔 것입니다. 프로세서 내부의 뉴럴 엔진을 통해 기기 안에 담겨 있는 정보들을 학습하고 이해해서 맥락을 찾아내는 것이 애플 인텔리전스의 주된 역할입니다.
#아주 사적인 인공지능 기술
스마트폰은 아주 개인적인 기기이고, 사실상 개인의 모든 디지털 정보가 모이는 허브입니다. 그 안을 잘 살피면 가족이 누구인지, 내가 사는 곳은 어디인지, 주로 이용하는 교통 수단은 무엇이고, 앞으로의 일정과 관심사 등을 모두 알 수 있습니다. 이를 해석해서 가치로 만들어내는 것이 인공지능의 역할인데, 그걸 어디에서 분석하도록 둘 것이냐를 두고 애플의 시선이 갈립니다.
애플은 이 정보들이 지극히 개인적인 내용이기 때문에 인사이트를 얻어내는 방법이 외부에서 이뤄지면 안 된다고 판단했습니다. 기기 내부에서 처리되는 것을 기본 원칙으로 하되, 기기의 성능만으로 처리하지 못할 부분들은 애플이 제공하는 별도의 비공개 클라우드 컴퓨팅을 활용합니다.
이 클라우드 컴퓨팅은 정보 전체를 보내는 것이 아니라 모델의 일부 커다란 데이터를 처리하는 데에 쓰이고, 전송 과정부터 모든 부분이 익명 처리됩니다. 분석과 처리의 내용은 아무도 볼 수 없고, 여느 애플의 서비스와 마찬가지로 독립적인 보안 전문가들이 상시적으로 서버의 프라이버시 정책을 감사하도록 합니다.
그러다 보니 오히려 내부의 정보를 더 적극적으로 해석할 수 있게 됩니다. 애플이 ‘맥락’이라고 부르는 부분입니다. 메시지, 이메일, 캘린더, 여행 앱, 항공사 앱, 지도, 연락처 등을 모두 훑어서 나에 대한 모든 부분에서 의미를 찾아냅니다.
키노트에서 시연된 예들이 바로 이런 부분을 잘 나타냅니다. 크레이그 페더리기 부사장이 ‘회의 일정이 미뤄져서 딸의 연극 공연 시간에 늦지 않고 갈 수 있을지 걱정’이라고 시리에게 이야기합니다. 시리는 그 의미를 정확히 읽어내서 먼저 딸이 누구인지 파악하고, 회의가 끝나는 시간과 현재 위치, 그리고 목적지까지 이동하는 방법과 시간을 두루 판단합니다. 연락처, 캘린더, 지도, 메일 등에서 얻어낸 복합적인 정보들이 하나의 가치를 만들어내는 것이지요. 그리고 시리가 이를 아우를 수 있도록 도움을 주는 것이 바로 애플 인텔리전스의 역할입니다.
#챗GPT는 ‘엔진’ 아니라 ‘파트너’, 타 기업 참여도 열려 있어
그렇다면 기대를 모았던 챗GPT와의 협업은 어떻게 되었을까요? 애플 인텔리전스와 시리는 챗GPT-4o를 활용합니다. 하지만 그동안의 소문처럼 챗GPT가 시리와 애플 인텔리전스의 기본 인공지능 모델을 제공하는 것은 아닙니다. 말을 만들어내고, 이미지를 만드는 것은 모두 애플이 직접 모델을 구성했습니다.
하지만 애플 인텔리전스의 역할은 전문 영역에 대한 지식 정보를 담고 있지 않습니다. 그 부분을 바로 외부의 전문 모델에 맡기도록 설계되었고, 챗GPT는 바로 그 부분에서 가장 상징적인 연결을 보여주었습니다. 여기에는 여러 가지 이유가 있는데, 애플 인텔리전스 자체가 디바이스에서 작동해야 하기 때문에 모델이 크지 않습니다. 세상의 모든 지식 정보를 담아내기에는 부담스러울 수밖에 없습니다.
게다가 대규모 언어 모델이 겪는 가장 큰 문제점인 ‘환각’도 있습니다. 세상에 없는 이야기를 당연한 듯이 지어내는 것이지요. 동화를 지어내는 데에는 적합하지만, 의료 정보를 해석한다거나 전문 지식을 검색할 때는 전혀 다른 문제입니다. 이를 위해서는 모델 크기를 키우고 지속적인 정보 학습이 필요합니다.
애플은 그 부분을 외부 전문 AI 모델에 맡기는 방법을 채택했습니다. 챗GPT는 가장 적절한 파트너였습니다. 그래서 특정 전문 정보가 필요할 때는 챗GPT를 연결해서 정보를 찾아내고 이를 다시 애플 인텔리전스로 적절하게 구성하는 방식입니다.
이를 통해 애플은 외부의 정보 업데이트와 환각에 대한 우려를 씻어낼 수 있게 됐습니다. 그리고 그 정보는 챗GPT 외에도 다른 전문 모델로 확장할 수 있는 여지도 남겨 두었습니다. 그 과정에서도 모든 정보는 익명화되고, 정보의 전송이 필요하다면 어떤 부분을 전송해서 결과를 얻어낼 것인지에 대해서 선택권을 줍니다.
결과적으로 애플은 기기 내부의 경험을 높이는 아주 사적인 인공지능 모델에 집중하고, 나머지는 외부 모델에 맡기는 환경을 이뤄냈습니다. 이 두 가지가 분리되면서 애플은 기기 내부의 개인 정보는 더 적극적으로 해석할 수 있게 된 부분이 큽니다. 애플은 이를 통해 인공지능에 대한 사생활 침해 우려를 벗어냈고, 생성형 AI에 대한 기대를 채우면서도 외부 파트너들을 통해 그 가능성을 넓힐 수 있는 기틀을 마련했습니다. 이용자들은 시리를 통해서 필요한 것을 요구하기만 하면 됩니다.
iOS18을 비롯해 맥OS 15 세콰이어 등 애플의 새 운영체제는 이전에 없던 전환이 이뤄졌고, 앞으로 당분간은 애플의 앱들이 인공지능을 기반으로 진화하고, 서로 도우면서 새로운 경험들을 만들어갈 겁니다.
애플은 가장 애플다운 방법으로 인공지능 플랫폼을 빚어냈습니다. 기술적으로 늦었다는 평가 속에서 시작된 공개지만 이미 애플은 반도체를 통해 온 디바이스 AI를 준비해 왔고, 적절한 모델과 클라우드를 이용한 프라이빗 AI를 완성해 냈습니다. 무엇보다 이 모든 정책들을 통해 애플은 인공지능이 ‘왜 필요한지’에 대한 답을 더 적극적으로 고민하고 있다는 인상을 주었습니다. 어떻게 보면 발표 내용이 많고 인공지능이 해내는 일이 복잡해서 다루기 더 어려운 것이 아닐까 하는 걱정도 듭니다. 애플의 고민도 그 부분에 있었던 것 같습니다.
이를 판단하는 것은 실제 써봐야 할 일이지만 아직 iOS18이나 맥OS15 세콰이어에서는 인공지능 기술을 쓸 수 없습니다. 기능에 따라서 여름, 가을을 넘어가며 순차적으로 더해질 계획이고 영어 외 언어는 더 많은 시간을 갖고 채워질 계획입니다. 한글에 대한 우려가 남기는 하지만 그 역시 인공지능이 빠르게 답을 내어줄 것이라고 기대해 봅니다.
미국 쿠퍼티노=최호섭 IT 칼럼니스트
writer@bizhankook.com[핫클릭]
·
SKT AI비서 '에이닷' 애플워치 버전 직접 사용해보니…
·
"사제폭탄, 마약 제조법까지 술술" 생성형AI '탈옥법' 확산 파문
·
GPT-4o 발표를 보며, 나는 왜 구글 크롬을 떠올렸나
·
애플은 왜 '아이패드 프로'에 OLED 패널 두 장을 겹쳤을까
·
애플은 왜 나오지도 않은 양자컴퓨터를 경계할까