NEWS

I modelli di AI generativa possono dimenticare selettivamente i dati dopo il training



Indirizzo copiato

I ricercatori Microsoft hanno usato il rinforzo e la riqualificazione per cancellare la memoria dei dati di Harry Potter da un modello linguistico di grandi dimensioni

Pubblicato il 9 ott 2023



Gartner generativa AI

La proprietà intellettuale rimane uno dei maggiori problemi irrisolti dell’AI. L’azione legale intentata dagli autori per l’uso del dataset Books3 per addestrare modelli di AI popolari evidenzia i rischi per le aziende che costruiscono e utilizzano l’AI generativa. Ma cosa succederebbe se i modelli di intelligenza artificiale potessero dimenticare? I ricercatori di Microsoft stanno cercando di rispondere a questa domanda. Grazie a una nuova tecnica – ancora senza nome – i ricercatori sono riusciti a far disimparare selettivamente le informazioni da modelli linguistici di grandi dimensioni. Vediamo come.

Continua a leggere questo articolo

Articoli correlati

OSZAR »