Al revisar los resultados en el portal de pacientes, experimentó un profundo temor que le impidió esperar a comunicarse con su médico. Por lo tanto, con algo de inquietud, decidió pegar el informe completo en ChatGPT.
El chatbot de inteligencia artificial (IA) le informó que los resultados podrían señalar diversas condiciones, pero que ‘lo más probable’ era que se tratara de un tumor hipofisario o de una enfermedad poco común asociada a estos tumores.
Las suposiciones del chatbot no fueron descartadas —el médico de Kerr concordó en solicitar una resonancia magnética para confirmarlo—, aunque resultaron ser incorrectas. No se encontró ningún tumor.
Otro paciente, Elliot Royce, de 63 años, vivió una experiencia distinta tras cargar cinco años de su historial médico en ChatGPT, que incluía documentación sobre una cardiopatía compleja y un infarto previo.
Comenzó a sentirse más incómodo al ejercitarse, y una prueba reveló que tenía una arteria parcialmente bloqueada. Su médico consideró que, por el momento, bastaría con una vigilancia cercana. Siguiendo el consejo de ChatGPT, Royce optó por un procedimiento de diagnóstico más invasivo, que descubrió una obstrucción del 85 por ciento, un problema grave que se trató con un ‘stent’.
A nivel global, millones de personas recurren a chatbots para comprender mejor su salud. Algunos, como Kerr y Royce, van más allá de realizar simples preguntas médicas.
Ellos, junto a más de una decena de personas que conversaron con The New York Times, han proporcionado resultados de laboratorio, imágenes médicas, notas de médicos, informes quirúrgicos y otros documentos a los chatbots.
La imprecisión de la información es una de las principales inquietudes. Algunos estudios han demostrado que las personas sin formación médica obtienen diagnósticos correctos de los chatbots en menos de la mitad de las ocasiones, y la carga de datos sensibles incrementa los riesgos para la privacidad a cambio de respuestas que pueden parecer más personalizadas.
Danielle Bitterman, profesora adjunta en la Facultad de Medicina de Harvard y directora de la clínica de ciencia de datos e inteligencia artificial en Mass General Brigham, sostiene que no es seguro asumir que los chatbots personalizan el análisis que realizan sobre los resultados de pruebas médicas. Sus investigaciones han mostrado que los chatbots tienden a ofrecer respuestas más generales, incluso cuando se les proporciona contexto sobre pacientes específicos.
‘El hecho de que se proporcione toda esa información a los modelos lingüísticos no implica que la utilicen de la misma manera que lo haría un médico’, explicó.
Además, una vez que las personas cargan este tipo de datos, tienen un control limitado sobre cómo se emplean.
La ley federal de privacidad en salud, HIPAA, no se aplica a las empresas detrás de los chatbots más populares. Según Bradley Malin, profesor de Informática Biomédica en el Centro Médico de la Universidad de Vanderbilt, ‘prácticamente se renuncia a cualquier derecho relacionado con la privacidad médica’, y solo permanecen las protecciones que una empresa específica decida ofrecer.
OpenAI, creador de ChatGPT, afirma que cuenta con amplias medidas de protección de la información privada de sus usuarios.
Un representante indicó que los usuarios pueden optar por no permitir que sus chats se utilicen para entrenar futuros modelos y afirmó que la empresa ha sometido sus sistemas a pruebas contra ataques simulados. También mencionó que comparte un mínimo de datos con proveedores de servicios externos. (El Times demandó a OpenAI por infracción de derechos de autor del contenido periodístico. OpenAI está en negociaciones sobre las transacciones).
Sin embargo, los expertos en privacidad de datos advierten que cargar información médica en cualquier chatbot conlleva riesgos, ya que las políticas de los chatbots varían y es complicado eliminar todas las vulnerabilidades.
Uno de los problemas es que muchas personas no eligen no proporcionar sus datos para el entrenamiento de los chatbots. Esto genera la posibilidad de que, si una persona sube datos médicos y otra pregunta a un modelo futuro sobre esa persona, un chatbot ‘podría filtrar accidentalmente información muy sensible’, explicó Karni Chagal-Feferkorn, profesora adjunta en la Facultad Bellini de Inteligencia Artificial, Ciberseguridad e Informática de la Universidad del Sur de Florida.
OpenAI asegura que está trabajando para ‘minimizar’ esta posibilidad, y el representante de la empresa afirmó que ChatGPT se entrena para no aprender ni revelar ese tipo de información. Sin embargo, los expertos en privacidad de datos continúan considerando esta posibilidad.
‘Sin duda, sus medidas reducen el riesgo, pero no son infalibles y probablemente no puedan serlo’, comentó Chagal-Feferkorn. ‘No hay que temer a la tecnología, pero es fundamental ser muy conscientes de los riesgos’, añadió.
Algunos pacientes mencionaron que habían eliminado sus nombres y metadatos antes de compartir sus historiales con los chatbots, pero esto podría no ser suficiente. Según Rainu Kaushal, director del Departamento de Ciencias de la Salud de la Población en el Centro Médico Weill Cornell y en el Hospital Presbiteriano de Nueva York, a veces es posible vincular información suficientemente detallada con personas específicas, aunque no se incluyan sus nombres.
Las consecuencias de la filtración de información sanitaria pueden ser graves. Por ejemplo, aunque para la mayoría de los empresarios es ilegal discriminar a las personas con discapacidad, no es poco común que ocurra.
Sin embargo, la mayoría de las personas que conversaron con el Times afirmaron no estar preocupadas.
‘Mi móvil me sigue a donde sea que vaya’, comentó Robert Gebhardt, de 88 años, quien solicita a ChatGPT que evalúe la urgencia de sus síntomas y la idoneidad de sus medicamentos, dado el historial médico de 15 años que cargó en el sitio. ‘Cualquiera que quiera saber algo sobre mí puede averiguarlo, incluidos mis datos médicos. Es un hecho de la vida, y ya lo acepté’.
Stephanie Landa, de 53 años, ha introducido los resultados de sus pruebas en ChatGPT desde que el año pasado le diagnosticaron un cáncer de apéndice metastásico. Valora que ChatGPT le ofrece un panorama inmediato de sus resultados, sobre todo cuando son devastadores, como cuando se mostró que el cáncer se había extendido por todo el abdomen. Si procesa las malas noticias antes de la visita al médico, puede aprovechar mejor el tiempo de la consulta.
Durante un tiempo, redactó minuciosamente los datos identificativos. Pero luego decidió que, dado el pronóstico de su cáncer agresivo, ya no le importaba.
En cuanto a Kerr, un endocrinólogo no pudo ayudarla tras descartar el tumor, relató, y su médico de cabecera no ha podido resolver el misterio.
Así que ha vuelto a recurrir a ChatGPT en busca de nuevas sugerencias diagnósticas y consejos dietéticos, algunos de los cuales le han resultado útiles.
“Sé que es información delicada”, afirma. “Pero también siento que no obtengo respuestas de ningún otro lado”.
Gracias por acompañarnos hasta el final de esta historia.
Desde Referente Guatemala Creemos que la información también nos ayuda a comprendernos mejor como sociedad y a observar con mayor atención lo que ocurre a nuestro alrededor.








