(사진=사카나 AI)
(사진=사카나 AI)

여러 인공지능(AI) 모델의 장점만을 골라 새로운 모델을 만드는 병합(Merge) 기술로, 수백세대를 걸쳐 진화한 생성 인공지능(AI) 모델이 등장했다. 트랜스포머 논문의 저자 중 하나로, 물고기 떼와 같은 집단 지성 체제를 AI에 도입하겠다고 밝힌 릴리언 존스의 사카나 AI가 주인공이다.

사카나 AI는 21일 '진화하는 새로운 파운데이션 모델: 모델 개발 자동화의 힘 활용'이라는 글을 통해 '병합 진화 모델(Evolutionary Model Merge)'이라는 방식을 소개하고, 이를 통해 구축한 모델 3개를 소개했다.

사카나는 우선 연구 초점이 진화, 집단 지성 등 자연에서 영감을 받은 아이디어를 적용해 새로운 기반 모델을 만드는 것이라고 밝혔다. 특정 개별 모델을 훈련하는 것이 아니라, 파운데이션 모델을 자동으로 생성하는 기계를 만드는 것이라고 설명했다.

모델 병합이란 두개 이상의 LLM을 단일 모델로 결합하는 기술이다. 간단하게 말해 두개 이상의 모델을 혼합, 충돌하거나 중복되는 부분을 제거하고 각 모델의 장점만 취하는 개념이다.

지난해부터 등장한 SLERP(Spherical Linear Interpolation), 타이(TIES-Merging), DARE, 패스스루(Passthrough) 등의 기술을 기반으로 한다. 이를 통해 허깅페이스의 오픈 LLM 리더보드에는 병합 모델이 속속 등장하고 있다.

특히 이 방식은 기존 단일 모델처럼 학습이 필요하지 않아, GPU 없이도 저렴하게 모델을 구축할 수 있다는 것이 장점이다.

사카나는 바로 이런 병합을 거듭, 세대에 걸쳐 진화하는 모델을 구축하는 방식을 채택했다. 구체적으로는 ▲기존 모델에서 레이어를 선택하고 재정렬해 새로운 모델로 가져오는 '데이터 플로우 스페이스(레이어) 병합' 방식과 ▲기존 모델 간의 매개변수를 혼합하는 '파라메터 스페이스(가중치) 병합' 방식 두가지를 사용했다. 이를 통해 뛰어난 부분만 선택 및 취합, 세대를 늘려가며 성능을 거듭해 고도화했다는 설명이다.

모델 병합 개념도 (사진=사카나 AI)
모델 병합 개념도 (사진=사카나 AI)

실제 개발 과정에서 사카나는 3개의 오픈 소스 모델을 가져와 '교배'해 100개 이상의 자손 모델을 만들었다. 그 결과를 벤치마킹해 가장 성능이 좋은 모델만을 골라내 다음 세대 모델을 만드는 재료로 다시 사용했다. 이 과정은 최종 모델이 선택될 때까지 수백세대에 걸쳐 반복했다는 설명이다.

이를 통해 내놓은 모델은 수학 추론이 가능한 일본어 LLM과 일본어 비전-언어 모델(VLM)이다.

벤치마크 테스트 결과 두 모델 모두 최고 수준의 결과를 달성했다고도 전했다. 특히, 7B 매개변수인 일본 수학 LLM은 다양한 일본 LLM 벤치마크에서 최고의 성능을 달성, 범용 일본어 LLM이 되기에 충분하다고 강조했다.

일본어 성능 벤치마크 결과 (사진=사카나 AI)
일본어 성능 벤치마크 결과 (사진=사카나 AI)

또 일본어 VLM은 특정 문화 콘텐츠를 놀라울 정도로 잘 처리할 수 있으며 일본 이미지-설명 쌍의 일본 소스 데이터셋에서 테스트했을 때 최고의 결과를 얻었다.

더불어 이 방법은 이미지 생성을 위한 '확산 모델(Diffusion Model)'에도 적용된다는 것을 발견, 스태빌리티 AI의 'SDXL'을 바탕으로 진화한 이미지 생성 모델도 개발했다. 이는 단 4개의 확산 단계에서만 추론을 수행하도록 최적화, 생성 속도가 매우 빠르다는 설명이다.

일본어 이미지 생성 모델 출력 결과 (사진=사카나 AI)
일본어 이미지 생성 모델 출력 결과 (사진=사카나 AI)

최종적으로 사나카는 모델 합병을 통한 진화로 ▲EvoLLM-JP(일본어 언어) ▲EvoVLM-JP(비전-언어) ▲EvoSDXL-JP(이미지 생성) 등 일본어로 된 3가지 강력한 기반 모델을 발전시켰다고 소개했다.

이 중 LLMVLM은 허깅페이스 등을 통해 오픈 소스로 공개했다. 이미지 생성 모델에 대해서는 별도의 연구 결과를 발표할 예정이라고 덧붙였다.

사카나는 “우리의 접근 방식이 '비영어 언어 및 수학', '비영어 언어 및 이미지'와 같이 완전히 다른 영역의 모델을 자동 병합할 수 있다는 것을 발견했다. 이는 이전에는 어렵다고 여겨졌던 일이다”라고 말했다. 

또 "우리 알고리즘에 의해 자동으로 진행하는 이 병합 방법은 새로운 것"이라며 "전문가가 시행착오를 통해 발견하기 어려운 방법일 수 있다"라고 강조했다.

이번 출시는 단지 시작일 뿐이라고도 전했다.

"우리는 이번 연구가 장기 개발의 시작일 뿐이라고 보며, 파운데이션 모델 훈련 비용이 치솟는 것을 감안하면 모델 병합 추세는 더 거세질 것"이라고 전했다.,

또 "다양한 모델의 방대한 오픈 소스 생태계를 활용함으로써 정부 기관 및 기업과 같은 조직은 비용 효율적인 진화적 접근 방식을 모색할 수 있다"라며 "이는 완전한 사용자 정의 LLM을 구축하기 위해 상당한 리소스를 투입하기 전에 초기 단계의 기반 모델을 더 빠르게 개발할 수 있어 더 빠른 혁신 주기를 이끌 수 있다"라고 말했다.

한편 사카나는 지난해 구글을 퇴사한 릴리언 존스가 동료 데이비드 하와 설립한 스타트업이다. 이들은 회사 설립 당시 "현재 AI 모델은 취약하고 변경할 수 없는 구조를 가진 것이 한계"라며 "물고기 무리처럼 환경에 잘 적응하는 AI 모델을 만들 것"이라고 밝혔다. 사카나는 물고기 떼를 의미하는 일본어다.

특히 도쿄에 사무실을 차리고 서구 언어 모델에 비해 발전이 뒤쳐진 일본어 모델을 개발하겠다고 선언했다. 이를 통해 일본 정부로부터 지원을 받은 것으로 알려졌다.

박찬 기자 cpark@aitimes.com

키워드 관련기사
  • '트랜스포머' 저자들 “더 나은 아키텍처가 필요해”...GTC 패널 토론 나서
  • 사카나 AI, 400억 투자 유치..."아시아 적합한 AI 개발"
  • "트랜스포머 논문 저자 8인, 아직도 그룹 채팅으로 소통 중"