프로그래밍/LLM

[Day4] 한 권으로 LLM 온라인 스터디 1기 - 파인튜닝 개념

31weeks 2025. 1. 25. 17:37
728x90
반응형

3.1 전체 파인튜닝 데이터 준비

3.1.1 전체 파인튜닝의 원리와 종류

  • 파인튜닝이란?
    - 이미 학습되어 공개된 언어 모델(Pre-trained Language Model,)을 특정 작업에 맞게 추가로 학습하는 것
    - 성능을 높이고자 하는분야나 풀고자 하는 문제의 데이터로 추가 학습
       → 모델이 해당 분야에서 더 정확하고 신뢰할 수 있는 응답을 생성할 수 있게 됨

  • 파인튜닝을 하는 이유
    - 처음부터 모델을 개발하는 것 보다 훨씬 더 경제적이고 편리함
    - 특정분야의 데이터는 매우 적음 → 과적합, 자연스러운 언어생성 능력 부족

  • 파인튜닝의 종류
    - PEFT(Parameter-Efficient Fine-Tuning, 매개변수 효율적 파인튜닝)
      a. 어댑터 튜닝(Adapter Tuning) : 기존의 거대한 언어 모델에 작은 규모의 신경망을 새롭게 추가
      b. 프롬프트 튜닝(Prompt Tuning) : 모델에 입력되는 텍스트에 특별한 지시사항을 추가
      c. LoRA(Low-Rank Adaptation) : 작은 크기의 두 행렬을 곱한 결과를 원래 행렬이 더하는 방식으로 모델을 효율적으로 조정하는 기술 → 특히 대규모 모델을 파인튜닝 할 때 계산 자원과 시간을 절약할 수 있는 효율적인 방법임
  • 파인튜닝을 할 때 주의할 점
    - 과적합(Overfitting)
    - 재앙적 망각 현상(Catastrophic Forgetting)
    - 막대한 연산자원과 시간이 필요(7B이상 되는 모델의 경우)
    - 데이터의 품질과 양(Garbage In, Garbage Out)

 

3.1.2 다양한 데이터셋

 

3.1.3 데이터 전처리

  • 텍스트 전처리 : 원본 텍스트를 컴퓨터가 더 쉽게 분석할 수 있는 형태로 바꾸는 과정
  • 데이터 클렌징 : 잘못되거나 불완전한 부분을 찾아고치거나 없애는 과정
  • 토큰화 : 텍스트를 의미있는 작은 단위로 나눔
  • 정규화 : 텍스트를 인공지능 학습에 용이한 형태(일관된 형식)로 만듬
728x90
반응형