Parameter-Efficient Fine-tuning(PEFT)

✅ Prefix-tuning

Untitled

모델 앞에 학습 가능한 벡터 추가하는 것: random하게 초기화

<aside> 💡 Prefix-tuning에서 사용되는 벡터는 입력 데이터와 함께 모델에 주어지며, 초기에는 랜덤하게 초기화됩니다. 그 후 훈련 과정에서 이 벡터는 업데이트되어, 특정 작업에 필요한 정보를 학습하게 됩니다. 이렇게 학습된 벡터는 그 후의 예측 또는 분류 과정에서 사용됩니다. 이 방식은 모델의 파라미터를 크게 늘리지 않으면서도 특정 작업에 대한 성능을 향상시키는데 도움을 줍니다.

</aside>

Untitled

prefix 붙이기

✅ Adapter tuning

Untitled