Las acusaciones de padres y madres a las formas de interacción de chatbot de inteligencia artificial (IA) con sus hijos, y en concreto la polémica creada a raíz del suicidio de un menor de 16 años en California tras estar meses interactuando con ChatGPT, han intensificado el debate sobre su influencia, al alza, en la salud mental de adolescentes.
En el debate sobre la influencia de los chatbot de IA en la salud, en concreto en la salud mental, y más en concreto en la salud mental de adolescentes, han intervenido las compañías.
OpenAI, la compañía matriz de ChatGPT, anunció este martes que establecerá controles parentales en su chatbot tras las acusaciones de padres y madres de haber contribuido a autolesiones o suicidio de sus hijos.
Los controles comenzarán a aplicarse a partir de octubre. Según las explicaciones dadas hasta la fecha, las medidas permitirán, por un lado, la vinculación de las cuentas de padres con las de sus hijos para que puedan revisar el contenido, y por otro, la recepción de notificaciones en cuanto el sistema detecte situaciones de inestabilidad emocional.
También Meta ha anunciado respuestas. Su portavoz, Stephanie Otway, avanzó el martes que los chatbot de la entidad serán entrenados para evitar conversaciones sobre estados emocionales inestables mientras la empresa ultima controles de seguridad más robustos y limitaciones de acceso más estrictas.
Los chatbots son aplicaciones de software que utilizan inteligencia artificial para interactuar con las personas mediante conversaciones escritas o habladas.
En el ámbito de la salud, estos sistemas pueden ofrecer desde consultas sobre síntomas y tratamientos hasta apoyo emocional y seguimiento de condiciones crónicas.
Debate sobre IA y salud mental en auge
La controversia pública está en auge porque recientemente Reuters publicó un reportaje sobre la falta de medidas de protección de la IA para menores por parte de las plataformas de la compañía, como WhatsApp, Instagram, Facebook o Threads.
Además, los padres de un menor que se suicidó tras estar meses interactuando con ChatGPT se han querellado en California contra OpenAI y su dueño, Sam Altman. Indican que el chatbot de la compañía no aplicó medidas de seguridad a pesar de estar claras las intenciones suicidas del joven.
Y en julio, senadores estadounidenses escribieron una carta a la compañía exigiendo información sobre sus iniciativas para prevenir las autolesiones y el suicidio, después de constatarse registros de respuestas delirantes en situaciones límite.
Consenso sobre su uso en España
En enero, en Madrid, expertos crearon el primer consenso sobre el uso de los chatbots en salud con un documento con criterios éticos y técnicos para garantizar la veracidad de la información, la privacidad de los datos y el uso equitativo de estas herramientas digitales.
El documento partió de un congreso organizado por el Instituto #SaludsinBulos en colaboración con el Colegio Profesional de Fisioterapeutas de la Comunidad de Madrid.
Beneficios de estas herramientas
La equidad en la atención sanitaria, la mejora en el diagnóstico y tratamiento, la educación en salud, el acceso inmediato a información adaptada a las necesidades del paciente, la mejora en la comunicación entre profesionales sanitarios y pacientes y la lucha contra los bulos de salud son algunos de los beneficios que ofrecen los chatbots en salud basados en la evidencia científica.
Además, en el ámbito del dolor, un trabajo publicado en Indian Journal of Anaesthesia concluyó que el uso de estos chatbots conseguía aumentar la satisfacción del paciente, mejorar la adherencia al tratamiento y reducir el tiempo de consulta con respecto a la distribución de folletos informativos o las conversaciones con el médico.
Riesgos de los chatbots de salud
Sin embargo, el documento de consenso también revela riesgos como:
- Sesgos derivados de los intereses del desarrollador.
- Fuentes de datos deficientes, alucinaciones o datos inventados.
- La privacidad.
- El autodiagnóstico.
- Ausencia de una normativa clara sobre su uso y responsabilidad.
En lo que respecta a los criterios de información veraz que tienen que cumplir los chatbots de salud, el consenso destaca la necesidad de adaptarse al contexto del paciente, utilizar múltiples fuentes y actualizar de forma constante la evidencia en la que se basa.
Todo ello contribuirá a la educación en salud, promoviendo la identificación y difusión de información confiable para contrarrestar la desinformación.
En cuanto a la ética, los asistentes conversacionales deben contar con mecanismos que aseguren la responsabilidad sobre la exactitud o veracidad de la información proporcionada, así como garantizar la privacidad y seguridad de los datos.
Además, el uso de los sistemas de IA debe ser equitativo y accesible para todas las personas, sin discriminación geográfica, social o de otra índole y tienen que estar libres de sesgos que puedan favorecer la desinformación.
Los firmantes del consenso aseguran que la supervisión e intervención de los profesionales sanitarios debe ser fundamental y los pacientes tienen que entender que se trata de una herramienta complementaria, que no reemplaza a los profesionales.
Por último, en relación con los criterios de comunicación, el consenso recuerda la importancia de la escucha activa, ser capaces de ajustar la información según la rutina y el ritmo de vida del paciente y que las recomendaciones del chatbot promuevan mejoras en las actividades diarias del paciente.










