
En el mundo moderno, la interacción con la inteligencia artificial es parte de la vida diaria de muchas personas, pero su desarrollo aún no llegó al punto de reemplazar funciones de los profesionales, y uno de los mayores ejemplos es el caso del hombre recientemente intoxicado tras intentar reemplazar la sal con consejos de ChatGPT, que suscitó preocupaciones debido al mal uso de la herramienta.
La revista Annals of Internal Medicine publicó un reciente artículo describiendo el caso, en el que menciona que el hombre de 60 años de edad sin antecedentes psiquiátricos ni médicos acudió a emergencias expresando preocupación de que su vecino lo estuviera envenenando. Pese a su inquietud, la explicación de lo que le sucedía era mucho más simple.
El hombre ingresó al hospital padeciendo alucinaciones paranoicas por intoxicación. Foto:iStock
Luego de los análisis pertinentes, que arrojaron resultados normales para su edad, el paciente informó que mantenía múltiples restricciones dietéticas y que destilaba su propia agua en casa. Ante las alucinaciones paranoicas que empezó a padecer el hombre, con intentos de escaparse del hospital, los médicos contactaron al Departamento de Control de Envenenamiento y encontraron que sufría una intoxicación por bromuro.
De acuerdo al informe, el hombre había reemplazado durante tres meses el cloruro de sodio por bromuro de sodio obtenido de internet después de consultar con ChatGPT. El informe relata que el hombre había leído en la aplicación de IA que el cloruro se puede intercambiar por bromuro, aunque esto se realiza para otros fines y no para su ingesta.
Los peligros de la IA para la salud
Alertados por esta situación, las autoridades sanitarias remarcaron que el mal uso de la inteligencia artificial puede contribuir potencialmente al desarrollo de consecuencias adversas para la salud prevenibles, por lo que es importante utilizar la herramienta con conciencia y, ante cualquier duda sobre su salud, consultar a un profesional médico.
En ese sentido, los investigadores del Annals of Internal Medicine señalaron que es importante considerar que ChatGPT y otros sistemas de IA pueden generar imprecisiones científicas, así como también es probable que carezcan de la capacidad de discutir críticamente los resultados y, en última instancia, alimentar la propagación de información erróneos.