Skip to content

SKT-AI/A.X-3

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

1 Commit
 
 
 
 
 
 
 
 

Repository files navigation

A.X Logo

🤗 Models | 💬 Chat | 🖥️ Github

A.X 3.1: 한국어 특화 대규모 언어 모델

🇺🇸 View English README

SK텔레콤이 독자적으로 개발한 대규모 언어 모델(LLM) A.X 3.1 (에이닷엑스 3.1)을 2025년 7월 11일 출시했습니다. 자체 클러스터를 활용해 모델 구조 설계부터 데이터 수집, 학습까지 전 과정을 자체적으로 수행하여 완전한 통제력을 가진 한국 소버린 AI 모델로, 총 1조 6,500억 토큰 규모의 다국어 코퍼스를 기반으로 처음부터(from scratch) 학습되었습니다. 이 중 한국어는 핵심 언어로 포함되어 있으며, 고품질 데이터에 집중하여 학습량 대비 가장 효율적인 성능을 보여주는 한국형 LLM입니다.

A.X 3.1, 무엇이 다른가요?

  • 완전한 한국 소버린 AI: A.X 3.1은 SKT의 자체 인프라 TITAN 클러스터에서 학습되었습니다. 모델 학습에 사용된 데이터는 20조 토큰에 달하는 웹 기반 대규모 코퍼스를 기반으로 하며, 이는 SKT 내부 파이프라인으로 직접 수집/정제/가공되었습니다.
  • 고효율 다중언어 LLM: A.X 3.1 Light은 1조 6,500억 토큰이라는 가장 적은 학습량으로 훈련된 한국어 오픈소스 LLM 가운데 가장 컴퓨팅 효율적인 모델입니다.
  • 뛰어난 한국어 실력: 대표적인 한국어 지식 평가 벤치마크인 KMMLU에서 61.7점을 기록하여, 다른 한국어 특화 모델 대비 우수한 성능을 보였습니다.
  • 고도화된 언어 이해 능력: 고난도 한국어 언어 역량 평가 벤치마크인 KoBALT-700에서 27.43점을 기록하며, 한국어 특화 모델 중 가장 높은 성능을 입증했습니다.
  • 효율적인 토큰 처리: 동일한 한국어 텍스트를 입력해도 A.X 3.1보다 GPT-4o가 약 1.5배 많은 토큰을 사용합니다.
  • 배포 옵션: 340억 개(34B) 매개변수를 갖춘 표준 모델 A.X 3.1과 70억 개(7B) 매개변수의 경량 모델 A.X 3.1 Light로 제공되며, 기업 내부 서버에 직접 설치(온프레미스)할 수 있어 데이터 보안에 대한 걱정을 덜 수 있습니다.
  • 방대한 정보 처리: A.X 3.1은 최대 32,768 토큰 길이의 문서나 대화를 한 번에 이해할 수 있습니다.

핵심 기술은?

A.X 3.1은 오픈소스 기반이 아닌, 완전히 처음부터(Scratch) 독립적으로 설계 및 학습된 SKT의 소버린 LLM입니다. 아키텍처 설계, 학습 데이터, 인프라, 최적화 전략까지 전 과정을 SKT가 직접 구축하였습니다.

모델 아키텍처 스펙

A.X 3.1 시리즈는 파라미터 수 대비 최적화된 구조로 설계되어 연산 효율성과 확장성을 확보했습니다.

Model # Params # Layers # KV-Heads Hidden Dim FFN Dim
A.X 3.1 Light 7B 32 32 4096 10880
A.X 3.1 34B 48 8 8192 21824

Pareto-Optimal 연산 효율성

A.X 3.1은 동급 성능의 모델들보다 5~6배 낮은 연산량으로 학습되었습니다.

A.X 3.1 연산 효율성 그래프

고품질 데이터 정제 파이프라인과 데이터 믹스처

  • 모델 학습을 위해 20조 토큰에 달하는 웹 기반 대규모 코퍼스를 구축하였습니다.
  • 이 데이터는 SKT 내부 파이프라인으로 직접 수집·정제·가공되었으며, 데이터 합성 및 정교한 필터링 과정을 통해 고품질(high-quality) 문서를 선별했습니다.
  • A.X 3.1의 학습에 활용된 최종 토큰 수는 1.65조(1.65 trillion)개로, 한국어를 중심으로 언어와 도메인 비중을 균형있게 반영한 전략적 데이터 믹스처로 구성되었습니다.

클라우드에 의존하지 않은 완전 독립 인프라

  • A.X 모델 시리즈는 모두 외부 클라우드 서비스에 의존하지 않고, SK텔레콤이 직접 구축한 고성능 AI 클러스터에서 학습되었습니다.
  • 이는 비용 최적화 뿐 아니라 데이터 보안성과 연산 자원의 독립성 확보 측면에서 중요한 의미를 가집니다.

벤치마크 측정 결과

  • A.X 3.1 Light는 동급 모델들 대비 MATH(70.14), HumanEval+ (73.78), MBPP+ (61.64) 등 코딩과 논리적 추론이 필요한 벤치마크에서 강세를 보입니다.
  • 특히 KMMLU (61.7), KoBALT (27.43), Ko-IFEval (70.04) 등 한국어 평가 지표에서 타사 모델 대비 우세하여 균형 잡힌 한국어 처리 능력을 갖췄습니다.
Benchmarks A.X 3.1 Light Kanana-1.5-8B EXAONE-3.5-7.8B Qwen2.5-7B Qwen3-8B
(w/o reasoning)
Knowledge KMMLU 61.70 48.28 53.76 49.56 63.53
CLIcK 71.22 61.30 64.11 58.30 63.31
KoBALT 27.43 23.14 21.71 21.57 26.57
MMLU 66.95 68.82 72.20 75.40 82.89
General Ko-MT-Bench 78.56 76.30 81.06 61.31 64.06
MT-Bench 74.38 77.60 83.50 79.37 65.69
Instruction Following Ko-IFEval 70.04 69.96 65.01 60.73 73.39
IFEval 79.86 80.11 82.61 76.73 85.38
Math HRM8K 41.70 30.87 31.88 35.13 52.50
MATH 70.14 59.28 63.20 65.58 71.48
Code HumanEval+ 73.78 76.83 76.83 74.39 77.44
MBPP+ 61.64 67.99 64.29 68.50 62.17

더 자세한 정보가 필요하시거나 궁금한 점이 있으시면 아래 연락처로 편하게 문의해 주세요.

연락처: a.x@sk.com

About

SKT A.X LLM 3.1

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Contributors 2

  •  
  •