Manipulación de información o difusión de datos falsos sin verificar, entre los peligros, resalta Jesús Savage Carmona

  • Helena Gómez Adorno coincidió que se debe regular, mas no prohibir el empleo de esa tecnología
    Ante el avance vertiginoso de la inteligencia artificial (IA), cuya utilización se amplía en diferentes áreas del conocimiento, es indispensable promover su regulación, toda vez que empieza a generar más problemas que beneficios, consideró el profesor-investigador de la Facultad de Ingeniería de la UNAM, Jesús Savage Carmona.

Durante el Seminario TIC: “IA generativa, retos y beneficios del ChatGPT”, organizado por la Dirección General de Cómputo y Tecnologías de Información y Comunicación, el especialista comentó que no se debe tener miedo ni tratar de prohibir el uso de las nuevas herramientas digitales, como el ChatGPT, pero sí se debe buscar la forma de atajar una serie de riesgos que se han acrecentado.

El universitario aclaró que al ser desarrollos que se alimentan con datos introducidos por las personas, son susceptibles de generar información falsa o imprecisa.

Entre los riesgos del empleo de la inteligencia artificial generativa se encuentran la manipulación de información o la difusión de datos falsos sin verificar, puntualizó.

Lo primero que se debe considerar, dijo, es que cualquier contenido se puede manipular; muestra de ello es el ChatGTP, el cual aprende con ejemplos y se alimenta con datos que con frecuencia se toman de páginas de internet públicas, no necesariamente confiables; entonces puede manejar a la población con información falsa.

En el mismo sentido, añadió, a las nuevas herramientas también se les puede ordenar que generen videos o imágenes falsas o fotografías alteradas.

“Existen otras redes neuronales generativas como la llamada Dalí, a la cual por medio de texto le podemos decir que genere este video o imágenes falsas; podremos decir: oye, genérame un video de un político besándose con otra política. Entonces, imagínense que esto va a pasar en las elecciones el próximo año con videos e imágenes falsas”, alertó Savage Carmona.

Entre los peligros que se han agudizado son el reemplazo de trabajadores por máquinas automatizadas; la ampliación de la brecha digital entre quienes dominan las nuevas tecnologías y quienes carecen de acceso a ellas; además de la generación de información para discriminar o el uso de la IA para fines bélicos o militares.

Cambiar el modelo de enseñanza

La investigadora del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas, Helena Gómez Adorno, coincidió en la necesidad de regular, mas no prohibir el manejo de la IA.

Indicó que en cuestiones académicas, y ante la preocupación de que alumnas y alumnos utilicen las nuevas herramientas digitales para hacer trampa en la realización de tareas y trabajos escolares, no es suficiente con buscar mecanismos para verificar la autenticidad de los documentos, por lo cual los profesores deben analizar la pertinencia de modificar sus métodos de enseñanza y cambiar sus formas de evaluación.

Como docentes, tendríamos que empezar a explorar otras formas de evaluar y darles otro tipo de tareas porque la tecnología ya está, no se va a ir; no solamente está el chatGTP, hay más en la web y cada día se agregan.

Enfatizó que se deben buscar nuevas formas de cómo convivir con esta tecnología y aprovecharla como una herramienta de gran utilidad, tanto para estudiantes como para profesores.

En lugar de asignarles tareas en las que tienen que responder una pregunta, tendremos que dejar ese modelo educativo que solamente se usa para validar si aprendió algo y le preguntamos un concepto. En vez de hacer preguntas o encargarles un ensayo, mejor que elaboren un mapa conceptual, sugirió.

Robots e IA

En cuanto al desarrollo de robots que realicen actividades domésticas a través de la inteligencia artificial, Savage Carmona explicó que también en este rubro hay avances espectaculares en los últimos 15 años.

Lo que parecía ciencia ficción hoy es prácticamente una realidad, con autómatas que pueden efectuar todo tipo de tareas en el hogar, en las llamadas casas inteligentes y a través de lo que se conoce como el internet de las cosas.

“Hay un robot vigilante, el robot que corta el pasto, el robot que aspira; y existen comercialmente algunos robots de servicio, con sistemas más complejos como el que plancha y dobla la ropa, o el que realiza tareas de cuidados”, detalló.

El investigador subrayó: para que un robot de servicio pueda realizar las actividades domésticas básicas tiene que reconocer comandos de voz, objetos y personas; entender las palabras, además debe identificar lugares y ser capaz de planear acciones y movimientos.

Lo que actualmente facilita que reconozcan objetos son las llamadas redes neuronales convolucionales, que retoman el concepto de las neuronas, logran desarrollar grandes redes para almacenamiento de datos e información, que son alimentadas permanentemente por personas, abundó el experto.

Artículo recuperado de: https://www.dgcs.unam.mx/boletin/bdboletin/2023_728.html

Por admin

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *