애플이 아이폰이나 아이패드 등 기기에서 로컬로 인공지능(AI)을 실행하기 위한 혁신적인 기술을 공개했다. ‘온디바이스 AI’ 본격 적용을 위해 관련 기술 개발에 나선 모습이다.
벤처비트는 20일(현지시간) 애플이 최근 3D 아바타 애니메이션 생성와 효율적인 대형언어모델(LLM) 추론을 위한 새로운 온디바이스 AI 기술을 소개하는 논문 2개를 발표했다고 보도했다.
첫번째 논문에서 애플은 30분 만에 짧은 비디오에서 3D 아바타 애니메이션을 생성할 수 있는 생성 AI 기술 ‘HUGS’를 소개했다.
HUGS 는 아이폰 카메라로 촬영한 3초 분량의 짤막한 영상으로 다양한 디지털 캐릭터나 아바타를 만들 수 있다. 특히 사진처럼 사실적인 캐릭터를 생성해 낸다. 또 이를 매초 60프레임의 부드러운 아바타 애니메이션으로 제작할 수 있다.
특히 뉴만(NeuMan), 비드2아바타(Vid2Avatar) 등 다른 아바타 생성 방법에 비해 학습 및 렌더링 속도가 최대 100배나 빠르다.
일반 게임용 GPU에서도 30분 만에 애니메이션을 생성할 수 있다.
애플은 “HUGS는 새로운 포즈 합성은 물론 인간 및 배경의 새로운 장면 합성을 모두 가능하게 한다”라고 설명했다.
… 중략…
다른 논문에서는 사용 가능한 DRAM 용량을 초과하는 장치에서 LLM을 실행하는 방법을 소개했다. LLM 매개변수를 플래시 메모리에 저장하고 추론할 때, 부족한 DRAM으로 데이터 전송을 최소화하는 방법이다.
애플은 ▲플래시 메모리 기반 프레임워크 내에서 이전에 활성화된 뉴런을 재사용해 데이터 전송을 전략적으로 줄이는 ‘윈도우잉(windowing)’과 ▲플래시 메모리에 저장해 읽는 데이터 블록의 크기를 늘리는 ‘행-열 번들링(row-column bundling)’ 기술을 적용했다.
이런 방법을 사용하면 사용 가능한 DRAM 크기의 최대 2배까지 모델을 실행할 수 있으며, CPU 및 GPU의 단순 로딩 방식에 비해 추론 속도가 각각 4~5배, 20~25배 향상된다고 설명했다.
.. 중략..
출처 : AI타임스(
https://www.aitimes.com
)
출처 :https://www.clien.net/service/board/news/18488574?od=T31&po=0&category=0&groupCd=