A Few Positive Steps Before Adding Artificial Intelligence
●Develop clear guidelines. Seek expert input to identify AI tools that are evidence-based and safe to use, by seeking advice about AI tools that are effective and safe to use.
●Collaborate with IT professionals. Work closely with information and communication technology specialists to ensure appropriate implementation.
●Prioritize data protection. Pilot AI programs co-designed with clinicians and patients to safeguard personal information.
●Use AI as an adjunct. Test chatbots or virtual supports that complement human care, such as tools for patients on therapy waitlists or in geographically isolated areas.
Mixed responses about AI emerged from a recent survey.
A recent study showed that many clinicians remain cautious and skeptical about using Artificial Intelligence (AI) but also see its promise, and many have already integrated this technology into their practice.
An Online Survey
To explore current perceptions and use of AI, Dr. Jake Linardon of Deekin University (Victoria, Australia) and his colleagues surveyed 116 eating disorder specialists and 155 community participants. Recruitment began in September 2024 (Int J Eat Disord. 2025. 58:724). Eligible clinicians were mental health professionals with experience treating eating disorders. Community participants qualified if they had engaged in binge eating, self-induced vomiting, laxative or diuretic use, compulsive exercise, or fasting within the prior month. Participants reported demographic data, and clinicians added information about credentials, practice setting, and the percentage of their caseload involving eating disorder patients. Symptom severity was measured with the Eating Disorder Examination Questionnaire (EDE-Q). Both groups rate the perceived usefulness, benefits, and risks of AI in mental health treatment, and were asked whether they believed AI could improve outcomes for people with eating disorders.
AI Use in Practice
Most (92%) clinicians (92%) reported using AI in some capacity, most commonly ChatGPT. Only 18% of community participants reported use of AI tools. Despite this high percentage of clinicians adopting AI, 59% of clinicians remained undecided about whether AI improves patient outcomes. Among community participants, only 13% believed AI could enhance treatment effectiveness, and only four described themselves as ‘extremely enthusiastic.’ Both clinicians and community members agreed that AI cannot replace the human relationship that supports recovery. Respondents emphasized the irreplaceable role of empathy, rapport, and crisis management in clinical care, qualities they doubted AI could replicate.
Clinicians’ Views: Balancing Promise and Risk
Clinicians cited several advantages to integrating AI into their practices. Nearly half (46%) saw the potential to reduce human error in follow-up care, while 45% valued AI’s ability to offer privacy and anonymity to patients seeking help with sensitive concerns. Many also believed AI could provide immediate support outside regular therapy hours. Concerns were substantial. Risks included confidentiality breaches, communication errors and possible misuse by clinicians without adequate training. Respondents repeatedly emphasized that AI should enhance, not replace, clinical expertise and human connection.
Community Perspectives
Community participants recognized the convenience of AI, particularly its accessibility via phones and computers (88%) and its availability outside standard office hours (81%). Some appreciated that AI interactions felt less judgmental or intimidating. However, concerns were strong. Participants cited AI’s lack of empathy (86%), the risk of misinformation, and threats to privacy (84%). Overall, 33% believed AI was beneficial, 43% were undecided, and the remainder viewed it as potentially harmful or unreliable.
Practical Takeaways
In a companion commentary, Dr. Deborah Mitchison, Associate Clinical Professor of Psychology at the University of Technology, Sydney, Australia, offered practical steps for safely incorporating AI into clinical practice (Int J Eat Disord. 25. 58:1196; https://doi.org/10.1002/eat.24447). Overall, developing expert consensus within the eating disorders professional treatment community suggests that some capabilities of AI may offer workflow efficiencies, but it will not replicate the empathy and clinical judgment that lie at the heart of treatment and recovery.
Clinical Reflection
This published survey underscores an important time for our field. Many clinicians already use AI for support in daily practice, yet uncertainty about its impact, safety, and ethics remains high. Together, we have an opportunity to help shape how AI evolves in eating disorder treatment, ensuring that innovation always remains grounded in compassion, privacy, and evidence-based care.
Algunos pasos positivos antes de añadir la IA
● Desarrollen directrices claras. Busque la opinión de expertos para identificar herramientas de IA que estén basadas en pruebas y sean seguras de usar, solicitando asesoramiento sobreque sean eficaces y seguras de usar.
● Colaboren con profesionales de IT. Trabajen en estrecha colaboración con especialistas en tecnologías de la información y la comunicación para garantizar una implementación adecuada.
● Prioricen la protección de datos. Pongan a prueba programas de inteligencia artificial diseñados conjuntamente con médicos y pacientes para proteger la información personal.
• Utilicen la inteligencia artificial como complemento. Prueben los chatbots o los soportes virtuales que complementan la atención humana, como las herramientas
para pacientes en listas de espera para recibir terapia o en zonas geográficamente
Incorporar la inteligencia artificial a la práctica privada
Una encuesta reciente ha revelado respuestas encontradas sobre la inteligencia artificial.
Un estudio reciente reveló que muchos clínicos siguen mostrándose cautelosos y escépticos con respecto al uso de la IA, pero también ven su potencial, por lo que muchos ya han integrado esta tecnología en su práctica.
Una encuesta en línea
Para explorar las percepciones actuales y el uso de la IA, el Dr. Jake Linardon de la Deekin University (Victoria, Australia) y sus colegas encuestaron a 116 especialistas en trastornos de la conducta alimentaria y a 155 participantes de la comunidad. El reclutamiento comenzó en septiembre de 2024 (Int J Eat Disord. 2025. 58:724) Los clínicos elegibles eran profesionales de la salud mental con experiencia en el tratamiento de trastornos de la conducta alimentaria. Los participantes de la comunidad reunían los requisitos si habían incurrido en atracones, vómitos autoinducidos, uso de laxantes o diuréticos, ejercicio compulsivo o ayuno en el mes anterior. Los participantes proporcionaron datos demográficos y los clínicos añadieron información sobre sus credenciales, el entorno en el que ejercen y el porcentaje de sus casos relacionados con pacientes con trastornos de la conducta alimentaria. La gravedad de los síntomas se midió con el Eating Disorder Examination Questionnaire (EDE-Q) Ambos grupos calificaron la utilidad, los beneficios y los riesgos percibidos de la IA en el tratamiento de la salud mental, y se les preguntó si creían que ésta podía mejorar los resultados de las personas con trastornos de la conducta alimentaria.
El uso de la IA en la práctica
La mayoría de los clínicos (92%) afirmaron que utilizaban la IA de alguna forma, principalmente ChatGPT. Solo el 18% de los participantes de la comunidad informaron el uso de herramientas de IA. A pesar de este alto porcentaje de clínicos que adoptan la IA, el 59 % de ellos seguían sin estar seguros de que ésta mejora los resultados de los pacientes. Entre los participantes de la comunidad, solo el 13% creía que la IA podía mejorar la eficacia del tratamiento, y solo cuatro se describieron a sí mismos como “extremadamente entusiastas”. Tanto los clínicos como los miembros de la comunidad coincidieron en que la IA no puede sustituir la relación humana que sustenta la recuperación. Los encuestados destacaron el papel insustituible de la empatía, la relación terapéutica y la gestión de crisis en la atención clínica, cualidades que dudan puedan ser replicadas por la inteligencia artificial.
Equilibrar las promesas y los riesgos: perspectivas de los clínicos
Los clínicos mencionaron varias ventajas de integrar la IA en sus consultas. Casi la mitad (46%) vio el potencial de reducir los errores humanos en el seguimiento de la atención médica, mientras que el 45% valoró la capacidad de la inteligencia artificial para ofrecer privacidad y anonimato a los pacientes que buscan ayuda con asuntos delicados. Muchos también creían que la IA podría proporcionar apoyo inmediato fuera del horario habitual de terapia. Las preocupaciones fueron significativas. Los riesgos incluían infracciones de confidencialidad, errores de comunicación y posible uso indebido por parte de clínicos sin la formación adecuada. Los encuestados enfatizaron repetidamente que la IA debería mejorar, no sustituir, la experiencia clínica y la conexión humana.
Perspectivas de la comunidad
Los participantes de la comunidad reconocieron la conveniencia de la IA, en particular su accesibilidad a través de teléfonos y computadoras (88%) y su disponibilidad fuera del horario habitual de oficina (81%) Algunos apreciaron que conversar con la inteligencia artificial les resultaba menos intimidante o sujeto a juicio. Sin embargo, las preocupaciones eran importantes. Los participantes mencionaron la falta de empatía de la IA (86%), el riesgo de desinformación y las amenazas a la privacidad (84%) En general, el 33 % creía que la IA era benéfica, el 43 % estaba indeciso y el resto la consideraba potencialmente dañina o poco confiable.
Recomendaciones Prácticas
En un comentario complementario, la Dra. Deborah Mitchison, profesora clínica asociada de Psicología de la University of Technology, Sydney, Australia, ofreció pasos prácticos para incorporar de manera segura la IA en la práctica clínica (Int J Eat Disord. 25. 58:1196; https://doi.org/10.1002/eat.24447) En general, el consenso alcanzado por los expertos de la comunidad profesional dedicada al tratamiento de los trastornos de la conducta alimentaria sugiere que algunas capacidades de la IA pueden ofrecer una mayor eficiencia en el flujo de trabajo, pero no podrá replicar la empatía y el juicio clínico que constituyen la base del tratamiento y la recuperación.
Reflexión clínica
Esta encuesta publicada destaca un momento importante para nuestro campo. Muchos clínicos ya utilizan la IA como apoyo en su práctica diaria, pero sigue habiendo mucha incertidumbre sobre su impacto, seguridad y ética. Juntos tenemos la oportunidad de ayudar a dar forma a la evolución de la IA en el tratamiento de los trastornos de la conducta alimentaria, garantizando que la innovación se base siempre en la compasión, la privacidad y la atención basada en la evidencia.