Katalog Plus
Bibliothek der Frankfurt UAS
Bald neuer Katalog: sichern Sie sich schon vorab Ihre persönlichen Merklisten im Nutzerkonto: Anleitung.
Dieses Ergebnis aus BASE kann Gästen nicht angezeigt werden.  Login für vollen Zugriff.

Sparse Distillation: Speeding Up Text Classification by Using Bigger Student Models

Title: Sparse Distillation: Speeding Up Text Classification by Using Bigger Student Models
Authors: Ye, Qinyuan; Khabsa, Madian; Lewis, Mike; Wang, Sinong; Ren, Xiang; Jaech, Aaron
Source: Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies ; page 2361-2375
Publisher Information: Association for Computational Linguistics
Publication Year: 2022
Document Type: conference object
Language: unknown
DOI: 10.18653/v1/2022.naacl-main.169
Availability: https://doi.org/10.18653/v1/2022.naacl-main.169
Accession Number: edsbas.4D4ECC07
Database: BASE