Lompat ke isi

Distilasi pengetahuan: Riwayat revisi

Pemilihan perbedaan: Tandai tombol radio dari revisi untuk membandingkan dan tekan enter atau tombol di bagian bawah.
Keterangan: (skrg) = perbedaan dengan revisi terbaru, (sblm) = perbedaan dengan revisi sebelumnya, k = suntingan kecil.

2 November 2025

  • skrgsblm 00.452 November 2025 00.45 Budi bicara kontrib 7.317 bita +7.317 ←Membuat halaman berisi ''''Distilasi pengetahuan''' adalah sebuah teknik dalam pembelajaran mesin yang bertujuan untuk mentransfer pengetahuan dari sebuah model yang besar dan kompleks (disebut ''teacher model'') ke model yang lebih kecil dan efisien (disebut ''student model''). Konsep ini dikembangkan untuk mengurangi kompleksitas komputasi dan kebutuhan sumber daya tanpa mengorbankan akurasi prediksi secara signifikan. Distilasi pengetahuan memanfaatkan keluaran model besar sebaga...'