애플, 아이패드 프로 통해 M4 칩 전격 공개
AI 지원 'NPU' 성능 확대에 주력
퀄컴, 더 빠른 NPU 성능 칩으로 맞대결 예고
애플이 인공지능(AI) 시대에 뒤졌다는 오명을 벗기 위해 공격적인 행보에 나섰다. 당초 오는 가을 아이폰16을 선보이며 시작될 것이라던 AI로의 전환이 4개월이나 전격적으로 빨라지면서 AI 칩 경쟁도 한층 격화할 전망이다. 그 중심에는 NPU(Neural Processing Units)가 있다.
애플이 공개한 M4 칩의 내부도. 밝게 표시된 부분이 AI 기능을 담당하는 뉴럴엔진이다. 사진=애플
원본보기 아이콘
애플은 지난 7일(현지시간) 신형 아이패드 프로를 발표하면서 전격적으로 M4 칩을 선보였다. 예상을 뛰어넘는 파격이었다. 애플 행보는 반도체는 물론, IT업계 전반에서도 이례적인 일이다. 전작인 M3 칩이 등장한 지 6개월 만에 M4를 선보였기 때문이다. 신형 칩을 1년도 되지 않아 출시하는 것은 극히 드물다. 애플은 2020년 반도체 분야에서 큰 파문을 불러온 M1을 선보인 후 2022년 M2, 2023년 M3를 선보였다. 아이폰용 A 칩도 1년마다 신형으로 교체된다. 그런데 6개월 만에 M3를 M4로 대체한 것은 AI 시대를 위한 칩 차원의 정비를 사전에 마친 것으로 해석된다.
이런 분석이 나오는 이유는 애플이 M4에서 AI 기능을 담당한 뉴럴엔진(NPU)을 적극 홍보하고 있다는 점에서 파악할 수 있다. 이제 중앙처리장치(CPU)의 처리 속도가 아니라 NPU의 속도 경쟁이 불붙고 있다.애플은 M4가 역대 가장 강력한 뉴럴엔진이라고 소개한다. M4는 초당 약 38조회에 달하는 연산 능력을 갖추고 있다. 이는 아이폰15프로에 사용된 A17프로 칩의 뉴럴엔진보다도 소폭 상승한 수준이다. 올가을 선보일 A18 칩의 뉴럴엔진 성능은 M4와 동일하거나 더 높아질 것으로 짐작해 볼 수 있다. A17프로의 뉴럴엔진 연산은 A16의 초당 17조번보다 2배가량 빠른 35조번이었다. NPU의 성능 향상은 올해 하반기 아이폰16과 함께 등장할 애플의 본격적인 온디바이스 AI를 위한 기반을 마련했음을 알리는 예고편이다.
애플은 M4 뉴럴엔진의 내부 비교 대상을 A11 바이오닉 칩의 뉴럴엔진으로 택했다. M4의 뉴럴엔진은 A11에 비해 60배나 빠른 속도를 보인다는 게 애플의 설명이다. A11은 2017년에 나온 아이폰 10주년 모델인 아이폰X에 사용된 칩이다. 애플의 칩으로는 처음 뉴럴엔진을 적용했다. 애플만이 아니라 반도체 업계에서도 시스템온칩(SoC) 차원으로 뉴럴엔진을 사용한 첫 케이스다. 당시에도 IT업계에서는 애플이 구글 등 클라우드 기반의 AI를 대비하는 기업과 달리 단말기 자체에서 작동하는 온디바이스 AI에 주력할 것이라는 예상을 내놓은 바 있다.
애플은 M4가 현존하는 어떤 AI PC의 신경망처리장치(NPU)보다 뛰어난 성능을 보장한다고도 했다. PC용에 한정하면 애플의 말이 맞다. 인텔 코어 울트라 CPU의 NPU 성능은 11조번, AMD 라이젠 8000/라이젠 프로 9000 프로세서 NPU는 16조번에 그친다.
애플은 어쩌면 '다크호스'를 견제하기 위해 M4를 선제 출격시킨 것으로 볼 수 있다. 다크호스는 퀄컴의 '스냅드래곤 X 엘리트'다. 애플 출신의 인력들이 설계한 스냅드래곤 X 엘리트는 퀄컴이 애플이 주도하는 ARM 기반 PC 시장 진입을 위해 공을 들여온 칩이다. 스냅드래곤 X 엘리트의 NPU 처리속도는 초당 45조회다. 이 칩을 사용한 삼성전자의 PC 등이 곧 출시될 예정이다. 인텔, AMD도 NPU 성능의 급격한 향상을 예고한 상태다. 애플은 아이폰과 아이패드에 AI 기능을 조금씩 강화해 왔다. 얼굴로 인식해 잠김 화면을 푸는 기능, 사진 보정, 애플 뮤직 등에서 경쟁 스마트폰 업체와 비교해 앞서 AI 기능을 적용해 왔다. 하지만 생성형 AI 챗 GPT가 등장하면서 상황이 뒤바뀌었다. 애플은 오히려 소극적인 온디바이스 AI에 주력하다 더 큰 흐름을 내주고 말았다.
M4가 뉴럴 엔진의 성능을 확보했지만 애플은 챗GPT로 높아진 소비자들의 눈을 충족할 수 있는 수준의 AI 기능을 아직 내놓지는 않고 있다. 갤럭시S24에서 호평받은 실시간 통역과 같은 기능은 여전히 나오지 않았다. 애플은 실시간 자막, 영상이나 사진 속 피사체를 식별하는 시각 정보 찾기, 동영상 속 배경과 피사체를 분리, 피아노 연주를 듣기만 하면 실시간으로 악보를 자동 생성하는 작업 등을 홍보하고 있다. 물론 이런 상황은 다음 달 열리는 애플의 WWDC 2024행사를 계기로 달라질 수 있다.
애플의 칩 전략 변화는 지난해 아이폰15프로에 사용되는 A17 프로 칩에서부터 감지됐다. 애플은 아이폰용 A칩에서 ‘바이오닉’이라는 이름 대신 프로를 붙여 새로운 라인을 형성했다. 올해 출시할 아이폰16에 A17 바이오닉이 등장할지, 아니면 A17 프로가 그대로 사용될지도 모호한 상황이다. 앞서 선보였던 M3의 고급형 칩인 프로와 맥스, 울트라 칩의 상황도 M4의 등장과 함께 혼란스럽다.
애플은 생성형 AI 시대 대응을 위해 강력한 반도체 설계 능력을 활용하려는 다양한 시도도 하고 있다. 월스트리트저널은 애플이 데이터센터용 AI 칩을 자체 개발 중이라고 보도했고, 블룸버그통신은 애플이 M2울트라 칩을 사용한 자체 AI 서버를 구축하고 있다고 전했다. 이미 확보한 고성능 칩을 활용하고 새로운 AI 칩을 통해 AI 대응력을 획기적으로 끌어올리려는 계획으로 파악된다.
이는 AI 반도체의 대표 주자인 엔비디아의 전략과도 맞물린다. 엔비디아는 AI용 그래픽처리장치(GPU)와 별도로 ARM 기반 CPU 개발에 나선 것으로 알려졌다. 엔비디아와 애플은 각자 우위를 지닌 부분을 기반으로 서로의 강점을 향해 내달리고 있다. 삼성 역시 갤럭시S24에 사용한 엑시노스 2400 칩의 NPU 기능을 강화했다. 삼성 측은 퀄컴 스냅드래곤과 엑시노스의 NP 성능이 큰 차이가 없다고 설명한다.
애플 전문매체 컬처오브맥은 이런 애플의 계획이 순조롭게 이뤄진다면 아이폰, 아이패드, 맥 컴퓨터 사용자들은 온디바이스 AI는 물론, 클라우드 기반의 AI를 접할 수 있을 것이라고 전망했다.
편집자주'애플 쇼크웨이브'가 '애플 엔비디아 쇼크웨이브'로 진화해 출판됐습니다. 애플과 엔비디아는 물론, ARM·퀄컴· AMD·테슬라 등 주요 반도체 기업들의 전략을 한눈에 들여다 보실 수 있습니다.
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(lboqhen.shop) 무단전재 배포금지>