Un reciente estudio publicado en la revista Nature ha encendido las alarmas sobre la precisión y confiabilidad de los modelos avanzados de inteligencia artificial, como ChatGPT. Aunque estas herramientas se utilizan cada vez más en sectores como la salud y las finanzas, los investigadores han detectado que aún presentan errores en tareas aparentemente simples, lo que podría tener graves consecuencias en su aplicación en entornos críticos.
El informe detalla cómo algunos de estos modelos han demostrado dificultades para resolver problemas matemáticos básicos o generar respuestas coherentes en situaciones complejas. Los autores del estudio advierten que, aunque los avances en IA son impresionantes, todavía es necesario mejorar su fiabilidad antes de permitir su uso en sectores sensibles donde un error podría costar vidas o causar daños financieros significativos.
A pesar de las críticas, muchas empresas continúan invirtiendo en la mejora de estos sistemas, esperando que la inteligencia artificial logre alcanzar un nivel de precisión y autonomía que pueda reemplazar o complementar a los seres humanos en una amplia gama de tareas.
Sin embargo, los expertos subrayan que el desarrollo de IA debe ir acompañado de una regulación más estricta para evitar riesgos
16 años cuestionándolo todo, investigación y crítica política sin censura.