tecnologia

Inarrestabile Cina: dopo DeepSeek arriva Qwen2.5-Max di Alibaba



Indirizzo copiato

Presentato il 28 gennaio, primo giorno del Capodanno lunare del 2025, è un modello MoE su larga scala pre-addestrato su oltre 20 trilioni (mille miliardi) di token e ulteriormente post-addestrato con metodologie curate di Supervised Fine-Tuning (SFT) e Reinforcement Learning from Human Feedback (RLHF). Nei benchmark supera DeepSeek V3, Llama, OpenAI-o1 e Claude 3.5 Sonnet. Ecco i risultati delle prestazioni e le caratteristiche principali

Pubblicato il 29 gen 2025



Qwen 2.5

Non si è ancora spenta l’eco delle gesta di DeepSeek che ecco arriva una nuova famiglia di modelli linguistici di grandi dimensioni “made in China”: Qwen 2.5, sviluppata da Alibaba Cloud. Le caratteristiche di questi modelli sono sicuramente interessanti, soprattutto il modello “Max”. Ecco i dettagli principali:

Continua a leggere questo articolo

Articoli correlati

OSZAR »