heise+ | Megabyte: Metas Transformer-Architektur für maschinelles Lernen erklärt from Heise's blog

Metas Transformer-Modell verzichtet auf einen Tokenizer und verarbeitet Daten byteweise. Damit soll es gleichermaßen Texte, Bilder und Audio beherrschen.


Source: https://www.heise.de/hintergrund/Megabyte-Metas-Transformer-Architektur-fuer-maschinelles-Lernen-erklaert-9290201.html?wt_mc=rss.red.ho.ho.rdf.beitrag_plus.beitrag_plus


Previous post     
     Next post
     Blog home

The Wall

No comments
You need to sign in to comment

Post

By Heise
Added Sep 5 '23, 03:08PM

Tags

Rate

Your rate:
Total: (0 rates)

Archives