- En las últimas décadas ha sido poco supervisada, con escasa regulación, sostuvo Melchor Sánchez Mendiola
- Samuel Ponce de León Rosales dijo que la inteligencia artificial es una herramienta que se diferencia de las demás, en virtud de que va a evolucionar por sí misma
Hoy en día los profesionales de la salud están obligados a desarrollar las habilidades digitales y contar con el conocimiento básico sobre inteligencia artificial (IA), teniendo en cuenta las implicaciones sociales, éticas y legales, aseguró el titular de la Coordinación de Universidad Abierta, Innovación Educativa y Educación a Distancia de la UNAM, Melchor Sánchez Mendiola.
Al ofrecer la conferencia magistral Inteligencia Artificial, Bioética y Educación Médica, en ocasión del Seminario Permanente de Bioética, destacó que los médicos generales, al igual que los odontólogos, veterinarios, enfermeras y fisioterapeutas, deben actualizar y analizar sus flujos de trabajo con las nuevas herramientas digitales para potenciar los encuentros clínicos y sus evaluaciones basadas en evidencia.
En tanto, para el coordinador académico del Seminario Permanente de Bioética y del Programa Universitario de Investigación sobre Riesgos Epidemiológicos y Emergentes, de la UNAM, Samuel Ponce de León Rosales, el debate y reflexión sobre el empleo y aplicación de dicho instrumento tecnológico en aspectos médicos, además de ser un tema de la mayor importancia, también se debe analizar con cuidado por los riesgos que conlleva.
“Es una herramienta que se diferencia de todas las demás, en virtud que va a evolucionar por sí misma. Pienso que es, de alguna suerte, como haber dejado salir al genio de la botella, ya no lo puedes volver a meter y cuando consigues estos desarrollos de inteligencia con aprendizaje automático por parte de las computadoras, entiendes que esta es una carrera en donde difícilmente vamos a poder llevar el control”.
Agregó que en la actualidad estamos en uno de esos momentos en que nuestra especie se enfrenta “a un cambio brutal”, y es urgente establecer leyes para imponer deberes éticos.
En el caso específico de la IA para cuestiones clínicas, Ponce de León consideró que es la oportunidad para recuperar ese tiempo que los clínicos reclamaban para atender mejor a los pacientes
Si un programa o una máquina inteligente puede realizar 80 por ciento del trabajo rutinario y del papeleo que actualmente elaboran médicos y enfermeras ocupando la mitad de sus turnos, podríamos estar más cerca de los enfermos, hablar de sus padecimientos y de los temas que les preocupan, ocupándonos en desarrollar nuestra empatía, afirmó.
Estrictos procesos
Al proseguir con su exposición, Sánchez Mendiola apuntó: estoy convencido de que es un imperativo ético y moral entrarle al uso de estas herramientas digitales y no tener miedo. No porque no seamos ingenieros o científicos de la computación, no podamos utilizarlas.
Sin embargo, subrayó que en las últimas décadas ha sido poco supervisada, con escasa regulación, por lo que conforme se utiliza en medicina, las y los investigadores del tema se han dado cuenta que varios de los trabajos, supuestamente innovadores, no cubren los criterios de una buena investigación ni con los parámetros éticos.
Toda indagación médica, incluso con la utilización de dicha tecnología de punta, debe satisfacer los criterios de evidencia clínica y el estricto rigor científico, como pueden ser vacunas, nuevas moléculas, medicamentos o dispositivos robóticos, enfatizó.
El especialista recordó que a partir de 2010 en el plan de estudios de la Facultad de Medicina de la UNAM se estableció un curso obligatorio para los estudiantes, con el objetivo de contar con actualización permanente sobre lo más reciente de las investigaciones relacionadas con esa tecnología. Lo novedoso en aquel momento fue el aprendizaje en línea, telemedicina o la bioinformática.
“Algunos colegas nos cuestionaban: ¿pero para qué les quieren meter esto a los médicos?, y aquí estamos en 2023, después de la pandemia que nos arrasó de manera tan fuerte. Ahora cada vez es más claro que esto de la IA tiene que formar parte del bagaje de los profesionales de la salud”, aseveró Sánchez Mendiola.
En pocos meses está ocurriendo “una explosión de publicaciones” sobre el tema y sus múltiples aplicaciones en la atención a la salud, lo que motiva para que cada vez haya más literatura debidamente certificada que deben consultar para ser consumidores educados de este tipo de trabajos, y así opinar al respecto y orientar a los pacientes, precisó.
Acotó que en noviembre de 2021 la UNESCO elaboró la primera norma mundial sobre la ética de la inteligencia artificial, la cual fue adoptada por los 193 estados miembros, entre ellos México.
Se establecen cuatro valores fundamentales para que los sistemas de esta ciencia trabajen por el bien de la humanidad y el medio ambiente, los cuales son: derechos y dignidad humana; vivir en sociedades pacíficas; garantizar la diversidad y la inclusión; así como fortalecer el medio ambiente y los ecosistemas.
Añadió que entre los modelos de estudio desarrollados sobre la aplicación de herramientas digitales en cuestiones médicas, destaca el elaborado por especialistas de la Universidad de Harvard, en el cual se enfatiza sobre la existencia de un círculo vicioso en la relación entre inteligencia artificial, ética y educación. Además, se subraya la brecha de acceso a las nuevas tecnologías que sigue siendo considerable.
De acuerdo con Sánchez Mendiola, hay limitantes de uso de las computadoras, a internet, a la calidad de conectividad y a los dispositivos, situación que se presentaba antes de la pandemia y que esta la expuso de manera cruda.
Y expresó: el empleo de la IA tiene implicaciones éticas fuertes en términos de autonomía, quién decide y quién es el dueño de los datos. Nos falta avanzar en los aspectos legales, propiedad de datos, educación de estudiantes, profesores e instituciones, pero también en políticas de seguridad, gobernanza de datos, sobre los sesgos algorítmicos y transparencia, por ejemplo.
Artículo recuperado de: https://www.dgcs.unam.mx/boletin/bdboletin/2023_788.html