Jump to:
Navigation

  • home
  • / kd

Knowledge Distillation

해당 페이지에서는 knowledge distillation에 대한 기본 개념 및 각종 논문들에 대해 소개하겠습니다.

Basic

  • Knowledge distillation — Knowledge distillation이란.

Paper

  • Distillation for High-Quality Knowledge Extraction via Explainable Oracle Approach — Knowledge distillation 방법론


© 2021. All rights reserved.

LICENSE | NOTICE | CHANGELOG

MyungHak

MyungHak

해당 블로그는 머신러닝 관련 포스트를 작성하는 블로그입니다.

Navigation:
  • Résumé*
  • Robotics
  • Knowledge Distillation
  • Computer Vision
  • Quantization
  • Etc
Social:
  • Twitter
  • GitHub

Templates (for web app):