-Herramientas digitales ofrecen orientación inmediata frente a síntomas y exámenes, pero expertos recalcan que no reemplazan el juicio clínico ni la evaluación presencial.
Hace tiempo que la inteligencia artificial (IA) dejó de ser una promesa para convertirse en una herramienta cotidiana en múltiples ámbitos de la vida. La atención médica no ha quedado al margen: hoy, cada vez más personas recurren a aplicaciones y plataformas digitales para consultar síntomas, interpretar exámenes o recibir orientación preliminar antes de acudir a un centro asistencial. Este avance abre nuevas oportunidades, pero también plantea interrogantes sobre seguridad y responsabilidad clínica.
Buen uso
Un estudio publicado en 2020 en la revista Nature Medicine evidenció que ciertos sistemas de inteligencia artificial pueden alcanzar niveles de precisión comparables a especialistas en áreas como dermatología y diagnóstico por imágenes. No obstante, también advirtió que su rendimiento puede disminuir cuando se aplican en poblaciones distintas a aquellas utilizadas para su entrenamiento.
A su vez, datos de la Organización Mundial de la Salud (OMS) señalan que la implementación de estas tecnologías debe avanzar con marcos éticos y regulatorios claros, resguardando siempre la seguridad de los pacientes.
En Chile, el interés también va en aumento. Sin embargo, especialistas coinciden en que no pueden reemplazar el juicio clínico ni la evaluación presencial cuando esta es necesaria.
Diagnósticos rápidos, pero imprecisos
Uno de los principales riesgos es la autointerpretación de síntomas sin una adecuada contextualización médica. “Las plataformas basadas en IA trabajan con probabilidades estadísticas, pero no integran antecedentes personales complejos, enfermedades previas ni factores de riesgo individuales”, explica el doctor Carlos Núñez Toledo, especialista de Cordillera Interclínica.
Si bien estas tecnologías pueden ser un apoyo para ordenar información o identificar patrones, “en ningún caso sustituyen la evaluación integral que realiza un profesional. Cuando una persona toma decisiones clínicas basándose exclusivamente en una aplicación, el margen de error puede aumentar de manera considerable”, añade.
Retraso en consultas
Otro riesgo relevante es la postergación de la consulta médica. “Si una herramienta digital minimiza un síntoma relevante o entrega una orientación tranquilizadora sin fundamentos suficientes, el paciente podría retrasar una evaluación oportuna”, señala el doctor Núñez.
“En patologías cardiovasculares, oncológicas o infecciosas, el tiempo es un factor crítico. Un retraso de semanas puede impactar significativamente en el pronóstico”, agrega el médico de Cordillera Interclínica.
Por ello, es fundamental que las plataformas digitales incluyan advertencias claras que indiquen que su orientación es solo referencial y que no reemplaza la evaluación de un profesional de la salud.
Protección de datos
El uso de estas herramientas también plantea desafíos relevantes en materia de privacidad. La información médica es altamente sensible y su manejo inadecuado puede vulnerar derechos fundamentales.
“En una consulta presencial, el paciente entrega sus antecedentes clínicos en un entorno regulado, bajo normas estrictas de confidencialidad y resguardo institucional. Cuando esos datos se ingresan en plataformas digitales externas, es indispensable que existan garantías claras sobre cómo se almacenan, procesan y protegen”, comenta el doctor Jose Ondarza, especialista de Los Leones Interclínica.
La OMS ha señalado que los sistemas de IA deben cumplir estándares estrictos de protección de datos, transparencia en el uso de información y trazabilidad de decisiones automatizadas. En Chile, la modernización de la legislación sobre protección de datos personales será clave para fortalecer la seguridad en este ámbito.
Además, persiste el riesgo de sesgos algorítmicos. Si los sistemas fueron entrenados con bases de datos poco diversas, podrían ofrecer resultados menos precisos en determinados grupos etarios o étnicos, por mencionar algunos, ampliando brechas en salud.
“Los algoritmos aprenden de los datos con los que fueron entrenados. Si esas bases no representan adecuadamente la diversidad clínica de la población, el margen de error puede aumentar en ciertos pacientes. Por eso, aunque estas herramientas orienten, no deben considerarse un diagnóstico médico. El diagnóstico es un acto clínico que integra antecedentes, examen físico, contexto y juicio profesional”, señala el doctor Ondarza
Un equilibrio necesario
La incorporación de inteligencia artificial en atención médica es un proceso inevitable, pero la tecnología debe estar al servicio de la medicina, no sustituirla. La relación médico–paciente, la escucha activa y el juicio clínico continúan siendo pilares insustituibles en la práctica clínica: “En un escenario donde la innovación avanza con rapidez, el desafío no es frenar la inteligencia artificial, sino integrarla con responsabilidad, criterio ético y foco humano”, concluye el doctor Ondarza.







