Back to Models
GI

ginigen-ai/Rogue-28B-MIX

ginigen-aiimage

Rogue-28B-MIX

한국어 reasoning + multimodal mix 모델.


🏛️ 가문 계보

┌──────────────────────────────────────────┐
│  증조부 (Great-Grandfather)               │
│  Qwen-3.6-27B                             │
└──────────────────────────────────────────┘
                  │
                  ▼
┌──────────────────────────────────────────┐
│  조부 (Grandfather)                       │
│  Darwin-3.6-28B                           │
└──────────────────────────────────────────┘
                  │
                  ▼
┌──────────────────────────────────────────┐
│  아빠 (Father)                            │
│  FINAL-Bench/Darwin-28B-KR                │
│  - 한국어 특화 reasoning 모델              │
└──────────────────────────────────────────┘
                  │
                  ×× 교배 ××
                  │
┌──────────────────────────────────────────┐
│  엄마 (Mother)                            │
│  NewenAI/QuettaLLMs-27B-Koreasoner-V3     │
│  - K-AI Leaderboard 1위                   │
└──────────────────────────────────────────┘
                  │
                  ▼
╔══════════════════════════════════════════╗
║  자식 (Child) — 본 모델                    ║
║  ginigen-ai/Rogue-28B-MIX                 ║
║                                            ║
║  - 친가의 reasoning 계승                   ║
║  - 외가의 한국어 K-AI 지식 계승            ║
║  - <think> 추론 트레이스 보존              ║
║  - 멀티모달 헤드 보존                      ║
╚══════════════════════════════════════════╝

🎓 학습 개요

  1. 친가 × 외가 모델 가중치 머지
  2. K-AI 도메인 데이터로 추가 SFT
  3. K-AI Leaderboard Docker 호환 형식 정비

📊 평가

한국어 공개 10 데이터셋, 100문제 × 1 seed.

DatasetRogue-28B-MIX엄마(Quetta)
CLIcK84%85%
KMMLU History48% 🏆45%
KMMLU Law25%26%
KMMLU Health81% 🏆80%
HAERAE GK63%66%
HAERAE History89%90%
HAERAE Linguistics90%95%
KoBEST Hellaswag95%97%
KoBEST COPA98%99%
KoBEST BoolQ97%97%
Macro Avg77.0%78.0%

K-AI Leaderboard 핵심 카테고리(의료·역사)에서 엄마 추월.


🎯 사용법

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

model_id = "ginigen-ai/Rogue-28B-MIX"
tokenizer = AutoTokenizer.from_pretrained(
    model_id, trust_remote_code=True
)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto",
    trust_remote_code=True,
)

prompt = "한국의 추석에 대해 설명해주세요."
messages = [{"role": "user", "content": prompt}]
inputs = tokenizer.apply_chat_template(
    messages, return_tensors="pt", add_generation_prompt=True
)
out = model.generate(
    inputs.to(model.device),
    max_new_tokens=512,
    do_sample=False,
)
print(tokenizer.decode(out[0], skip_special_tokens=False))

🛠️ 사양

  • 파라미터: 28B (multimodal)
  • 양자화: bf16
  • 컨텍스트: 8K (확장 가능)
  • 언어: 한국어 + 영어
  • 추론: <think> reasoning trace
  • License: Apache 2.0

🤝 출처

Visit Website

0 reviews

5
0
4
0
3
0
2
0
1
0
Likes10
Downloads
📝

No reviews yet

Be the first to review ginigen-ai/Rogue-28B-MIX!

Model Info

Providerginigen-ai
Categoryimage
Reviews0
Avg. Rating / 5.0

Community

Likes10
Downloads

Rating Guidelines

★★★★★Exceptional
★★★★Great
★★★Good
★★Fair
Poor