OPEN HYPER STEP
← 목록으로 (ai-startup)
AI-STARTUP · 93 / 100
ai-startup
CHAPTER 93 / 100
읽기 약 2
FUNCTION

파인튜닝: 도메인 특화 모델


핵심 개념

fine-tuning·LoRA·실전 사용 — 일반 LLM → 특화 모델.

본문

Fine-tuning 시점

📋 코드 (11줄)
[필요 시]
- 일반 LLM이 도메인 약함
- 특정 형식·톤·구조 필요
- 비용 절감 (작은 모델 + tuning)
- 응답 시간 단축

[불필요]
- Prompt engineering으로 충분
- RAG로 해결 가능
- 데이터 1000개 미만
- 빠른 변경 필요

데이터 준비

📋 코드 (19줄)
[필수 데이터]
- 1000~10000 examples
- 입력 + 정답 출력 쌍
- 다양성 + 균일

[형식]
{
  "messages": [
    { "role": "system", "content": "You are a Korean grammar tutor" },
    { "role": "user", "content": "I am agree with you" },
    { "role": "assistant", "content": "❌ \"I am agree\" → ✅ \"I agree\". 'agree'는 동사라서 be동사 불필요해요." }
  ]
}


[수집 방법]
- 본인 사용자 데이터 (익명화)
- ChatGPT로 합성
- 인간 검수 후 정제

OpenAI Fine-tuning

BASH📋 코드 (20줄)
# JSONL 파일 준비
# train.jsonl
{"messages": [...]}
{"messages": [...]}
...


# 업로드
openai files create -p fine-tune -f train.jsonl


# Tuning 시작
openai fine_tuning.jobs create \
  -t file-xxx \
  -m gpt-4o-mini-2024-07-18


# 비용
# - Training: $3 per 1M tokens
# - Inference: $0.30 input / $1.20 output (기본 + 50%)

사용

TYPESCRIPT📋 코드 (11줄)
import OpenAI from 'openai';
const openai = new OpenAI();

const result = await openai.chat.completions.create({
  model: 'ft:gpt-4o-mini:my-org:korean-tutor:abc123',
  messages: [{ role: 'user', content: 'I am agree' }],
});


// Fine-tuned 모델 ID로 호출
// 다른 점: 일관된 출력 + 빠른 응답

LoRA (Low-Rank Adaptation)

📋 코드 (15줄)
[LoRA 장점]
- 전체 fine-tuning vs LoRA = 1/100 비용
- 작은 파일 (수백 MB)
- 빠른 학습

[도구]
- Together.ai
- Replicate
- Modal
- 자체 GPU


[모델]
- Llama 3 70B + LoRA = $50~200
- 결과: 특정 task 우수

합성 데이터 (Synthetic Data)

TYPESCRIPT📋 코드 (21줄)
// 적은 진짜 데이터로 합성 데이터 생성
async function generateSyntheticExamples(seed: any[], count: number) {
  const examples = [];

  for (let i = 0; i < count; i++) {
    const result = await generateText({
      model: anthropic('claude-opus-4-7'),
      system: 'You are a synthetic data generator',
      prompt: `Based on these examples:
${seed.map(e => JSON.stringify(e)).join('\n')}

Generate a NEW similar example. Be creative but consistent in format.`,
    });
    examples.push(JSON.parse(result.text));
  }

  return examples;
}


// 100 진짜 → 1000 합성 → 1100 학습

측정

📋 코드 (9줄)
[Evaluation]
- Test set 분리 (학습 X)
- 정확도·BLEU·ROUGE
- 인간 평가 (10~50 sample)

[비교]
- 기본 GPT-4o-mini: 60% 정확도
- Fine-tuned: 85% 정확도
- 비용: 50% 절감 (작은 모델 + tuning)

한계

📋 코드 (13줄)
[Fine-tuning 한계]
- 일반 지식 추가 못 함
- 큰 데이터 필요
- 규칙적 변경 어려움

[대안]
- RAG (지식)
- Prompt engineering (지시)
- Function calling (도구)


→ Fine-tuning은 형식·톤 학습용
→ 지식은 RAG가 정답

다음 챕터

CH.94 "AI 마켓플레이스".


AI 프롬프트
🤖 AI에게 잘 물어보는 법 — 모델·전략별 프롬프트
무료

월 $0 — 검증·시작 단계

Fine-tuning을 무료 도구만으로
시작하는 방법을 알려줘.
소자본

월 $20~50 — MVP·초기 운영

월 $20~50 예산으로 Fine-tuning을
검증·MVP 단계까지 진행하는 전략은?
프로덕션

월 $200~500 — 성장 단계

Fine-tuning을 프로덕션 단계로
확장할 때 필요한 도구·운영 체계는?
스택

풀스택 — 도구 조합 분석

2026년 Fine-tuning 관련 도구 5개를
조합한 추천 스택을 알려줘.

⭐ 이것만 기억하세요
파인튜닝: 도메인 특화 모델 이 3가지만 확실히 잡으세요
1.Fine-tuning = 형식·톤 학습 — 1000+ examples
2.LoRA로 비용 1/100 — Llama·Mixtral 등
3.합성 데이터로 1000 → 10000 확장


공유하기
진행도 93 / 100