1. Использовать ru-bert-tiny2, ?. Датасет Russian Language Toxic Comments
2. Применить к модели Knowledge Distillation.
3. Fine-tune сжатой модели на классификации текста
4. Измерить производительность (accuracy, F1 score, inference time, model size).
5. Сравнить производительность сжатой модели с оригинальной моделью.
Есть код, но столкнулась с ошибкой, пофиксить которую никак не могу. Но можно и заново написать.