cupure logo
samsungsitegalaxyprixeurosjeanpormanovedunestreameurprooffre

"Red teams": comment OpenAI s'est assuré que ChatGPT agent ne devienne pas malveillant

"Red teams": comment OpenAI s'est assuré que ChatGPT agent ne devienne pas malveillant
Avant la sortie de ChatGPT agent, OpenAI a fait appel à plusieurs "red teams" pour évaluer sa dangerosité. Une pratique qui se démocratise pour éviter que les IA n'aident à concevoir des armes chimiques ou logicielles.

Commentaires

Les Actualités Technologie