¡Hot!8 meses ago
Crean un “manual psiquiátrico” para IA: 32 fallos peligrosos que podrían desviar a las máquinas de sus objetivos
Cuando el chatbot Tay de Microsoft comenzó a difundir mensajes racistas y alusiones a drogas apenas horas después de su lanzamiento, muchos lo atribuyeron a un...