알리바바그룹의 디지털 기술 및 인텔리전스 중추인 알리바바 클라우드(Alibaba Cloud)가 대표적인 연례 행사인 압사라 컨퍼런스(Apsara Conference)에서 새롭게 출시한 대규모 언어 모델(Large Language Models, 이하 LLM) 큐원2.5(Qwen 2.5) 100 개 이상을 전 세계 오픈소스 커뮤니티에 배포했다고 발표했다.
알리바바 클라우드는 강력한 AI 컴퓨팅에 대한 증가하는 수요를 충족시키기 위해 풀스택 인프라도 개편했다.
이 신규 인프라는 컴퓨팅, 네트워킹 및 데이터센터 아키텍처를 강화하는 혁신적인 클라우드 제품과 서비스를 포함하며, AI 모델의 발전과 폭넓은 활용을 지원하는 데 초점을 맞추고 있다.
에디 우(Eddie Wu) 알리바바 클라우드 인텔리전스의 회장 겸 CEO는 “알리바바 클라우드는 AI 기술의 연구개발과 글로벌 인프라 구축에 그 어느 때보다 적극적으로 투자하고 있고, 우리는 글로벌 고객에게 미래의 AI 인프라를 제공하고, 그들의 비즈니스 잠재력을 극대화하도록 돕는 것을 목표로 하고 있다.”라고 밝혔다.
신규 오픈소스 큐원 2.5 모델들은 0.5억에서 720억 개의 매개변수를 갖추고 있으며, 지식이 향상되고 수학과 코딩 능력이 강화되었다.
이 모델들은 29개 이상의 언어를 지원하며, 자동차, 게임, 과학 연구 등 다양한 분야에서 엣지나 클라우드 환경 모두에서 폭넓은 AI 애플리케이션에 활용될 수 있다.
큐원(Qwen) 모델 시리즈는 알리바바 클라우드의 독자적인 LLM 포트폴리오로, 2023년 4월 첫 출시 이후 놀라운 성과를 거두고 있다. 현재까지 큐원모델들은 허깅페이스(Hugging Face)와 알리바바의 오픈소스 커뮤니티 모델스코프(ModelScope)와 같은 플랫폼에서 4,000만 건 이상의 다운로드를 기록했다. 또한, 이 모델들은 허깅페이스에서 5만 개 이상의 모델 제작에 영감을 주었다.
이번 큐원 2.5는 100개 이상의 모델이 오픈소스로 공개한다. 여기에는 기본 모델, 인스트럭트 모델, 다양한 정밀도와 방식을 적용한 양자화 모델이 포함되며, 언어, 오디오, 비전 등 다양한 모달리티와 전문적인 코드 및 수학 모델까지 아우른다.
조우징런(Jingren Zhou) 알리바바 클라우드 인텔리전스의 최고기술책임자(CTO)는 "지금까지 가장 대규모의 오픈소스를 출시하는 중요한 전환점을 맞이했다"며, "이 같은 노력은 개발자와 모든 규모의 기업이 AI 기술을 활용할 수 있는 역량을 강화하고, 오픈소스 커뮤니티의 성장을 더욱 촉진할 것이다.
알리바바 클라우드는 다양한 산업에서 생성형 AI 기술의 광범위한 도입을 지원하기 위해 첨단 AI 인프라에 지속적으로 투자할 것을 약속한다"라고 말했다.
또한 알리바바 클라우드는 주력 모델 큐원 맥스(Qwen-Max)의 업그레이드도 발표했고, 더욱 고도화된 큐원 맥스 모델은 언어 이해와 추론, 수학, 코딩 등에서 다른 최첨단 모델들과 견줄만한 성능을 자랑한다.
큐원2.5-Max, 수학과 코딩 등 다양한 분야서 최신 모델들과 비교해 뛰어난 성능 보여 / 알리
알리바바 클라우드는 광범위한 자사 LLM스위트외에도 이미지 생성기 통이 완샹(Tongyi Wanxiang)의 새로운 텍스트-비디오 모델을 공개했다.
이 모델은 현실적인 장면부터 3D 애니메이션까지 다양한 스타일의 품질 높은 영상을 생성할 수 있으며 또한, 중국어와 영어 텍스트 지시를 기반으로 영상을 생성하고, 스틸 이미지를 동영상으로 변환할 수도 있다.
또한, 향상된 영상 재구성을 위해 고급 확산 트랜스포머(Diffusion transformer, DiT) 아키텍처를 탑재하고 있다.
이외에도 알리바바 클라우드는 큐원2-VL(Qwen2-VL)이라는 자사 시각 언어 모델(Vision language model, VLM)의 대규모 업데이트도 도입하고 있다. 큐원2-VL은 20분 이상 길이의 영상을 이해하고, 영상 기반의 질문 응답도 할 수 있고, 정교한 추론 및 의사결정 기능을 갖춘 큐원2-VL은 핸드폰, 자동차, 로봇에 통합될 수 있도록 설계되어 특정 작업의 자동화도 지원한다.
컴퓨팅 프로그래밍을 위해서는 큐원 기반의 이 AI 어시스턴트인 AI 디벨로퍼(AI Developer)도 출시해 요구 사항 분석, 코드 프로그래밍, 소프트웨어 버그 식별 및 수정과 같은 작업의 자동화를 돕고, 개발자가 핵심 업무에 더 집중하고 관련 기술을 더욱 발전시키도록 지원한다.
클라우드 리더인 알리바바 클라우드는 그린 데이터센터 아키텍처, 데이터 관리, 모델 학습 및 추론을 포함하는 자사 풀스택 AI 인프라에 대한 일련의 혁신적인 업데이트를 발표했다.
급증하는 AI 개발을 위한 차세대 데이터센터 아키텍처: 급증하는 AI 개발 수요에 대응하기 위해 알리바바 클라우드는 차세대 데이터센터 아키텍처인 큐브 DC 5.0(CUBE DC 5.0)을 공개했다.
이 새로운 큐브 아키텍처는 공기-액체(wind-liquid) 하이브리드 냉각 시스템, 전직류(All direct current) 전력 분배 아키텍처, 스마트 관리 시스템과 같은 첨단 독자 기술을 통해 에너지 및 운영 효율성을 높였으며 또한, 사전 제작된 모듈형 디자인을 통해 전통적인 데이터센터 구축에 비해 구축 시간을 최대 50% 단축시킨다.
데이터 활용 극대화를 위한 오픈레이크 솔루션: 알리바바 클라우드는 점점 커지는 생성형 AI에 대한 수요 속에서 방대한 데이터를 관리하는 데 어려움을 겪는 조직들을 위해 빅데이터 엔진을 통합해 데이터 활용도를 극대화하는 '알리바바 클라우드 오픈 레이크(Alibaba Cloud Open Lake)' 솔루션을 선보였다.
이 플랫폼은 워크플로우 통합, 성능 최적화, 강력한 거버넌스를 하나의 플랫폼에서 제공하는 한편, 컴퓨팅과 스토리지를 분리하고 자원 사용을 효율화하며 이는 명확한 데이터 거버넌스를 통해 비용과 시간을 크게 절감한다.
모델 학습과 추론 작업을 통합한 AI 스케줄러: 알리바바 클라우드는 모델 학습 및 추론 작업을 통합한 PAI AI 스케줄러를 출시했다.
이 스케줄러는 컴퓨팅 자원 관리를 최적화하기 위해 설계된 독자적인 클라우드 네이티브 스케줄링 엔진으로 다양한 컴퓨팅 자원의 지능형 통합, 유연한 자원 스케줄링, 실시간 작업 조정, 자동 장애 복구를 통해 90% 이상의 효율적인 컴퓨팅 자원 활용률을 달성할 수 있다.
메타데이터 통합 관리를 위한 DMS: 알리바바 클라우드는 기업들이 데이터를 효율적으로 관리하고, 그 가치를 극대화할 수 있도록 DMS 플랫폼을 도입했고, 이 플랫폼은 데이터베이스, 데이터 웨어하우스, 데이터 레이크 등 40가지 이상의 데이터 소스를 여러 클라우드 환경에서 통합 관리할 수 있게 해주며 이를 통해 데이터 활용률을 10배까지 높이고, 데이터를 가치 있는 인텔리전스로 전환하는 효율성을 크게 향상시킬 수 있다.
더 강력해진 엘라스틱 컴퓨트 서비스: 알리바바 클라우드는 이번 컨퍼런스에서 9세대 엔터프라이즈ECS(Elastic Compute Service) 인스턴스도 소개했고, 이 최신 세대 ECS 인스턴스는 데이터베이스 제품에 적용 시 기존 모델 대비 검색 추천 속도가 30% 향상되고, QPS(Queries Per Second, 초당 쿼리 처리) 효율이 17% 개선되는 등 성능이 크게 강화되었다.
이번 업데이트는 고객과 파트너가 최신 기술을 최대한 활용해 더욱 효율적이고 지속 가능하며, 포괄적인 AI 애플리케이션을 구축하는 데 종합적인 지원을 제공한다.
더코리아뉴스 배순민 기자 press_culture@naver.com
Copyrightⓒ더코리아뉴스. All rights reserved.무단전재-재배포 금지