La proprietà intellettuale rimane uno dei maggiori problemi irrisolti dell’AI. L’azione legale intentata dagli autori per l’uso del dataset Books3 per addestrare modelli di AI popolari evidenzia i rischi per le aziende che costruiscono e utilizzano l’AI generativa. Ma cosa succederebbe se i modelli di intelligenza artificiale potessero dimenticare? I ricercatori di Microsoft stanno cercando di rispondere a questa domanda. Grazie a una nuova tecnica – ancora senza nome – i ricercatori sono riusciti a far disimparare selettivamente le informazioni da modelli linguistici di grandi dimensioni. Vediamo come.
NEWS
I modelli di AI generativa possono dimenticare selettivamente i dati dopo il training
I ricercatori Microsoft hanno usato il rinforzo e la riqualificazione per cancellare la memoria dei dati di Harry Potter da un modello linguistico di grandi dimensioni
giornalista

Continua a leggere questo articolo
Argomenti
Canali