heise+ | Megabyte: Metas Transformer-Architektur für maschinelles Lernen erklärt from Heise's blog
Metas Transformer-Modell verzichtet auf einen Tokenizer und verarbeitet Daten byteweise. Damit soll es gleichermaßen Texte, Bilder und Audio beherrschen.
The Wall