podcast background

«Estamos viendo la punta del iceberg de lo que va a suponer la IA en los próximos años»

Los expertos advierten de los riesgos que entraña la eclosión de esta tecnología que ha irrumpido de forma silenciosa

Your browser doesn’t support HTML5 audio

Javier Morales

Granada

Miércoles, 15 de febrero 2023

Fue la primera gran victoria de una inteligencia artificial sobre un humano; o, al menos, la más mediática. Una máquina entrenada para analizar 100 millones ... de jugadas de ajedrez por segundo venció al campeón mundial Garri Kaspárov, que poco antes había dicho que aquella inteligencia artificial, bautizada como 'Deep Blue', era solo un amasijo de hierro y cables. Ocurrió hace ya 27 años y fue solo un prólogo de lo que estaba por venir: taxis autónomos, conversadores virtuales, robots de cocina y limpieza al alcance de cualquiera, cirugías a distancia, aplicaciones capaces de crear en apenas segundos obras de arte que antes llevaban años de trabajo… Y todo esto es, todavía, «la punta del iceberg de lo que va a suponer la IA en los próximos años».

Publicidad

Con esta frase, el catedrático de Ciencias de la Computación e Inteligencia Artificial Francisco Herrera, uno de los investigadores más citados del mundo en este ámbito, resume las décadas de historia a espaldas de las actuales aplicaciones. «Ha habido una eclosión importante, con un grado de aceptación importante, con aplicaciones como Midjourney o Dall-e que consiguen alcanzar una calidad muy importante en las imágenes. Incluso han ganado concursos. Hemos dado un gran paso en agentes conversacionales: ChatGPT está siendo una revolución y va a tener unas capacidades muy superiores», cuenta.

«ChatGPT está siendo una revolución y va a tener unas capacidades muy superiores»

Francisco Herrera

Catedrático de Ciencias de la Computación e Inteligencia Artificial

Pero reducir estos logros al 'triunfalismo tecnológico' implica dejar de lado los escenarios de alto riesgo que plantea el uso de la inteligencia artificial. Los 'robots' toman decisiones en cirugías, ante posibles accidentes de tráfico, en procesos de selección de personal, en ataques en plena guerra. Y en muchas más circunstancias -más complejas, que escapan al conocimiento general- en las que un humano puede actuar en función de emociones y percepciones del derecho o principios éticos de los que las máquinas, por ahora, no entienden.

Las autoridades, a nivel europeo y nacional, ya trabajan para establecer normativas y mecanismos de supervisión de los algoritmos. «Hay tres pilares básicos: cumplir con la ley, cumplir con los principios éticos, y que la IA sea robusta», cuenta Herrera, uno de los investigadores más citados del mundo en este ámbito.

Publicidad

Natalia Díaz, investigadora postdoctoral Marie Curie, augura un cambio en los esquemas laborales y económicos. «Los trabajos se van a transformar y tendremos que hacer procesos de recapacitación. Todo lo que tenga que ver con software y trabajos digitales se va a revolucionar. Quizá los trabajos que menos van a 'sufrir' son los trabajos físicos. Nos debemos preparar, porque no vamos a poder predecir cómo van a cambiar esos esquemas».

«Todo lo que tenga que ver con software y trabajos digitales se va a revolucionar»

Natalia Díaz

Catedrático de Ciencias de la Computación e Inteligencia Artificial

Ambos coinciden en que la supervisión humana seguirá siendo indispensable para evitar, resume Díaz, «efectos no deseados y preservar los derechos humanos ante los dilemas éticos». Esto será trabajo no de los informáticos, sino de filósofos, legisladores y expertos en ética.

Publicidad

«Una máquina no podrá sustituir a un humano, taxativamente, en global. Es cierto que hará cada vez más tareas, y que en determinados trabajos habrá menos personas para realizarlo. En la mayoría de los trabajos, aprenderemos a convivir con estas máquinas.. Trabajaremos asociados a sistemas inteligentes», concluye Herrera.

Hablamos de máquinas sin sentimientos, entrenadas para predecir, dada una pregunta, la respuesta más probable», añade Natalia Díaz en referencia a ChatGPT. «Tiene acceso a datos y aprende interactivamente a responder de manera coherente. Pero no tiene un conocimiento explícito, no puede razonar. Se inventa cosas, y esos datos hay que verificarlos porque comete muchos errores. Esta tecnología está en pañales, es como un bebé prodigio que es capaz de hacer ecuaciones diferenciales. Hay que ver cómo actúa. Tiene riesgos de sesgo y discriminación, y muchos otros que están por descubrir. Debemos educarnos, no verlo solo como algo mágico».