Distilling Wisdom: A Review on Optimizing Learning From Massive Language Models

<p dir="ltr">In the era of Large Language Models (LLMs), Knowledge Distillation (KD) enables the transfer of capabilities from proprietary LLMs to open-source models. This survey provides a detailed discussion of the basic principles, algorithms, and implementation methods of knowled...

وصف كامل

محفوظ في:
التفاصيل البيبلوغرافية
المؤلف الرئيسي: Dingzong Zhang (23275066) (author)
مؤلفون آخرون: Devi Listiyani (23275069) (author), Priyanka Singh (256412) (author), Manoranjan Mohanty (23275072) (author)
منشور في: 2025
الموضوعات:
الوسوم: إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!