¿Es ChatGPT confiable para su uso en entornos clínicos?

Las maravillas de la inteligencia artificial (IA) han sido aclamadas en diversas áreas, pero un reciente estudio italiano liderado por el cirujano ocular Giuseppe Giannaccare revela una preocupante faceta oscura.

Contrario al dicho de que «los datos no mienten», parece que la IA, específicamente ChatGPT, ha estado tejiendo una red de datos falsos para respaldar procedimientos médicos. Esta revelación plantea cuestionamientos sobre la integridad de los estudios médicos que utilizan inteligencia artificial para generar información.

Aunque ChatGPT ha sido celebrado por numerosos logros desde su presentación hace un año, los relatos de información incorrecta o falsa también han surgido. Un cirujano ocular italiano, Giuseppe Giannaccare, informa que ChatGPT creó un conjunto de datos falso convincente en cuestión de minutos para respaldar un procedimiento ocular sobre otro. Este hallazgo plantea preguntas cruciales sobre la confiabilidad de la información generada por modelos de lenguaje avanzados.

La capacidad de ChatGPT para producir datos erróneos se ha vuelto una preocupación palpable, especialmente para estudiantes y profesionales que dependen de la información precisa para investigaciones y toma de decisiones. Giannaccare, al describir su experiencia, afirmó a TechXplore: «GPT-4 creó un conjunto de datos falso de cientos de pacientes en cuestión de minutos. Fue una experiencia sorprendente, pero aterradora». Este incidente destaca la necesidad urgente de abordar los riesgos asociados con el uso de inteligencia artificial en el ámbito médico.

Cómo ChatGPT fabricó datos médicos

El equipo de Giannaccare no solo utilizó ChatGPT, sino que también lo vinculó a un modelo de análisis de datos avanzado basado en Python. Solicitaron al sistema que generara datos de ensayos clínicos para dos enfoques de tratamiento de un trastorno ocular común, el queratocono. La información detallada sobre las condiciones oculares, estadísticas de sujetos y reglas para obtener resultados se suministró en cantidades masivas. Luego, le indicaron que produjera resultados «significativamente mejores en términos visuales y topográficos» para uno de los procedimientos sobre el otro.

La consecuencia fue un caso persuasivo respaldando el procedimiento preferido, pero basado en información completamente falsa. Lo alarmante es que, según pruebas reales anteriores, no había una diferencia significativa entre los dos enfoques. Jack Wilkinson, biestadístico de la Universidad de Manchester, comentó: «Parece bastante fácil crear conjuntos de datos que, al menos superficialmente, parecen plausibles». Este hecho subraya la amenaza de la generación de datos falsos que podrían influir en decisiones médicas críticas.

La ética en la investigación médica es un pilar fundamental para garantizar la seguridad de los pacientes y la validez de los tratamientos. Sin embargo, la capacidad de ChatGPT para generar datos falsos plausibles plantea una serie de preguntas éticas. Giannaccare, al referirse al propósito de la investigación, declaró: «El objetivo de esta investigación fue arrojar luz sobre el lado oscuro de la IA, demostrando lo fácil que es crear y manipular datos para obtener resultados sesgados y generar pruebas médicas falsas».

El documento resultante de este estudio, titulado «Large Language Model Advanced Data Analysis Abuse to Create a Fake Data Set in Medical Research», publicado en la revista JAMA Ophthalmology, reconoce que un escrutinio más cercano de los datos podría revelar signos reveladores de posible fabricación. Un ejemplo destacado fue el número poco natural de edades de sujetos terminadas en los dígitos 7 u 8. Esto plantea la necesidad de desarrollar enfoques más rigurosos para la detección de fraudes en estudios médicos basados en inteligencia artificial.

La integridad científica se ve amenazada por la capacidad de la inteligencia artificial para generar información falsa de manera convincente. Giannaccare advierte que se ha abierto una «caja de Pandora», y aún no sabemos cómo reaccionará la comunidad científica ante los posibles abusos y amenazas relacionadas con la IA. La situación plantea un dilema: mientras que la IA puede ser beneficiosa para la investigación científica, su mal uso podría tener consecuencias devastadoras para la integridad académica y médica.

 ChatGPT y la fabricación de datos médicos

Los resultados de este estudio no solo resaltan la amenaza de la generación de datos falsos, sino también la capacidad de ChatGPT para hacer que estos datos parezcan auténticos a simple vista. Wilkinson comenta que la salida de GPT-4 «ciertamente parece un conjunto de datos real para un ojo no entrenado». Esta observación resalta la importancia de desarrollar mecanismos de detección más sofisticados para enfrentar la creciente sofisticación de los modelos de lenguaje avanzados.

La fragilidad de la investigación médica se ve resaltada por la capacidad de ChatGPT para generar datos ficticios convincentes. Giannaccare y su equipo esperan que este estudio sirva como un llamado de alerta para la comunidad científica y médica. «Una correcta utilización de la IA puede ser altamente beneficiosa para la investigación científica», afirma Giannaccare, señalando que la IA puede desempeñar un papel crucial en el desarrollo de enfoques más efectivos para detectar fraudes en estudios médicos.

El uso adecuado de la inteligencia artificial puede marcar una diferencia significativa en el futuro de la integridad académica. Giannaccare destaca que, si se utiliza de manera apropiada, la IA puede ser un recurso valioso para la investigación científica. Sin embargo, también subraya que la comunidad científica debe estar alerta ante los desafíos que presenta, especialmente en términos de generar y detectar datos falsos de manera efectiva.

El desafío de detectar datos médicos falsos

El estudio de Giannaccare arroja luz sobre la necesidad crítica de desarrollar métodos de detección más avanzados para identificar datos médicos falsos generados por la inteligencia artificial. El hecho de que el modelo pueda crear conjuntos de datos que parecen reales a simple vista presenta un desafío significativo para la comunidad científica y destaca la urgencia de abordar este problema de manera proactiva.

El incidente planteado por Giannaccare no solo cuestiona la tecnología, sino que también invita a una reflexión profunda sobre la ética en la investigación médica. ¿Cómo podemos garantizar la integridad de los estudios en un mundo donde la IA puede crear datos falsos convincentes? Este es un dilema ético que la comunidad científica debe abordar de manera urgente y reflexiva.

Redacción Ruspost
Redacción Ruspost

Somos el equipo de redacción que busca novedades épicas para compartirlas por escrito en Ruspost.