PEFT (Parameter-Efficient Fine-Tuning) คือชื่อเรียกรวมของวิธีการ fine-tuning ที่ปรับโมเดลให้เข้ากับงานเฉพาะด้วยทรัพยากรการคำนวณและข้อมูลที่น้อยลง โดยอัปเดตเพียงบางส่วนของพารามิเตอร์ในโมเดลภาษาขนาดใหญ่ แทนที่จะอัปเดตพารามิเตอร์ทั้งหมด
การฝึก LLM ที่มีพารามิเตอร์หลายพันล้านตัวแบบเต็มรูปแบบนั้น แม้จะใช้ A100 ถึง 8 ใบ ก็ยังต้องใช้เวลามากกว่าครึ่งวัน ในสภาพแวดล้อมที่มีงบประมาณและฮาร์ดแวร์จำกัด ตัวเลือกนี้มักไม่ได้รับการพิจารณาตั้งแต่ต้น PEFT เอาชนะอุปสรรคนี้ด้วยแนวทาง "แช่แข็งพารามิเตอร์ส่วนใหญ่ของโมเดล แล้วฝึกเฉพาะพารามิเตอร์ส่วนน้อยที่เพิ่มเข้ามา"
เมื่อจัดระเบียบวิธีการที่เป็นตัวแทน จะได้ดังนี้
ทีมของผู้เขียนได้ฝึก LLM ขนาด 7B พารามิเตอร์ด้วย LoRA บน A100 เพียง 1 ใบ ใช้เวลาประมาณ 3 ชั่วโมง และสามารถเพิ่มความแม่นยำเฉพาะงานได้ 15〜20% เมื่อเทียบกับ base model หากใช้ Full FT งานเดียวกันต้องการ A100×8 และใช้เวลา 12 ชั่วโมง ความแตกต่างด้านต้นทุนจึงชัดเจนมาก
อย่างไรก็ตาม PEFT ไม่ใช่วิธีที่ใช้ได้กับทุกกรณี การให้โมเดลได้รับความสามารถที่ไม่มีอยู่เดิม เช่น การสร้างข้อความในภาษาที่ยังไม่รองรับ ด้วย PEFT เพียงอย่างเดียวนั้นเป็นเรื่องยาก ในกรณีดังกล่าวจำเป็นต้องใช้ร่วมกับ Continued Pre-training
มักมีคำถามว่า "ควรใช้ PEFT หรือ RAG" แต่ที่จริงแล้วทั้งสองมีบทบาทต่างกัน RAG ทำหน้าที่อ้างอิงความรู้จากภายนอก ส่วน PEFT ทำหน้าที่ปรับพฤติกรรมและสไตล์ของโมเดล หากต้องการให้อ้างอิงความรู้ภายในองค์กรได้อย่างแม่นยำให้ใช้ RAG หากต้องการปรับโทนหรือรูปแบบของคำตอบให้ใช้ PEFT นี่คือจุดเริ่มต้นของการแบ่งการใช้งานในทางปฏิบัติ และการนำทั้งสองมาใช้ร่วมกันก็ไม่ใช่เรื่องแปลก


Base Model (Foundation Model) คือโมเดล AI อเนกประสงค์ที่ผ่านการ Pre-training ด้วยชุดข้อมูลขนาดใหญ่ โดยไม่ได้เฉพาะเจาะจงสำหรับงานใดงานหนึ่ง แต่ทำหน้าที่เป็น "รากฐาน" ที่สามารถปรับใช้กับงานที่หลากหลายได้ผ่าน Fine-tuning หรือ Prompt Engineering

อัลกอริทึมที่รวมข้อความโดยใช้รูปแบบที่พบบ่อยและแบ่งออกเป็นหน่วย subword ส่งผลโดยตรงต่อต้นทุนอินพุต/เอาต์พุตและความเร็วในการประมวลผลของ LLM สำหรับภาษาที่มีทรัพยากรน้อย อาจเกิดการแตกย่อยระดับ byte เนื่องจากคลังคำศัพท์เฉพาะมีไม่เพียงพอ

ไฟน์-ทูนนิ่ง (Fine-Tuning) หมายถึงกระบวนการนำข้อมูลการเรียนรู้เพิ่มเติมมาใช้กับโมเดลแมชชีนเลิร์นนิงที่ผ่านการ Pre-Training มาแล้ว เพื่อปรับให้เหมาะสมกับงานหรือโดเมนเฉพาะ


PEFT (Parameter-Efficient Fine-Tuning) คืออะไร? เทคนิคลดต้นทุนการปรับแต่ง AI Model ได้ถึง 90%