Boix en La Hora Azul: “En la mayor parte del mundo la IA evoluciona sin regulación, impulsada por la dinámica del capitalismo”

Inteligencia artificial: desafíos éticos y jurídicos con Andrés Boix Palop en La Hora Azul. Febrero 2024. Mainel. Comunicadores por Europa

«Somos conscientes de la presencia de la Inteligencia Artificial (IA) desde que irrumpió ChatGPT, en 2022. Sin embargo, aunque no nos percatásemos, ya hacía años que estaba funcionando y evolucionando. ¿Nos preocupa? ¿Nos ocupa?». Jorge Sebastián, presidente de Mainel, ha presentado así al protagonista de La Hora Azul sobre IA, Andrés Boix.

Nuestra preocupación es relativa porque “percibimos que hay cosas per se humanas, que nunca podrán ser suplantadas”, expone Andrés Boix, profesor titular de Derecho administrativo en la Universitat de Valencia y protagonista de La Hora Azul, la actividad que llevamos a cabo junto a la agrupación Comunicadores por Europa, de la Fundación COSO.

Sin embargo, usando la metáfora de una inundación, Boix describe que, igual que “al principio el agua cubre solo las partes más bajas del valle, después alcanza las lomas y, finalmente, acaba llegando a las cumbres, debemos asumir que la IA puede o podrá hacerlo absolutamente todo y, aunque no nos guste pensarlo, hacerlo mejor que las personas”, asevera.

A lo que Boix pone matices es a ese “mejor”. En su exposición pone de relieve cinco cuestiones capitales vinculadas a la naturaleza de la IA que no hay que perder de vista.

Regulación de la IA: «en pinganelles»

Como profesor de Derecho Administrativo, Boix ha comenzado por la regulación de la IA y las discusiones éticas que suscita, incluso entre sus propios desarrolladores, que no se ponen de acuerdo sobre adónde nos lleva. Según el Instituto sobre la Supervivencia de la Humanidad, de la Universidad de Oxford, la IA necesita una regulación muy clara. Pero eso no está ocurriendo.

En la mayor parte del mundo está evolucionando impulsada por la dinámica del capitalismo global. En Europa nos hemos propuesto regularla, pero el enfoque que se le está dando al reglamento es muy limitado porque se basa en la lógica de la seguridad industrial, afirma Boix, que describe la actual situación: “Estamos en pinganelles”. Aunque “este reglamento es mejor que nada, presenta importantes deficiencias ante los casos de desarrollos colaborativos de código libre”, por la imposibilidad de identificar al responsable, sentencia.

Los resultados de la IA dependen de la calidad de los datos

La IA maneja cantidades ingentes de datos y lo hace con muchísima agilidad. Pero, para que el resultado sea certero, necesita que su materia prima, los datos que le han sido proporcionados, sean buenos. Además, otro peligro que acecha es que, si los datos que utiliza tienen sesgo, la IA lo multiplicará. Boix lo ha demostrado este efecto con llamativos ejemplos.

¿Qué le pedimos a la IA?

Los resultados que nos ofrece la IA pueden no ser los deseados… si no los hemos expresado bien. Por ejemplo, una agencia dedicada a la colocación de personas desempleadas aumentó su ratio de efectividad a través de la IA. A primera vista, se había alcanzado el objetivo perseguido.

Sin embargo, al estudiarlo con detenimiento, se dieron cuenta de que no lo había conseguido casando mejor los perfiles de las personas en búsqueda de empleo con los requisitos de las empresas demandantes… en su lugar, había ignorado los perfiles de “difícil colocación” (por su edad u otras cuestiones). Al dejarlos fuera de la ecuación, las cifras de éxito mejoraban, pero a costa de dejar en la cuneta a esas personas.

Nuevos dilemas en la toma de decisiones

La Inteligencia Artificial, mediante el análisis de los datos, nos proporciona una especie de “opinión informada”. Por ejemplo, el sistema Viogén estima el grado de protección que precisa una víctima de violencia de género. La decisión final sobre las medidas que conviene adoptar la toma un juez o jueza, pero lo hace conociendo la valoración que realiza la IA. ¿Y si en lugar de confirmar su apreciación la contradice? Difícil tesitura para tomar una decisión con consecuencias que pueden ser irreversibles.

En este sentido, nuestro experto invitado a la Hora Azul, demuestra que el uso de la IA no siempre facilita la elección de la mejor opción.

Algoritmos: la única norma es autonómica, la valenciana

La Inteligencia Artificial utiliza algoritmos para «trabajar» y, como explica el protagonista de La Hora Azul, conviene conocerlos. Pero, de acuerdo con Boix, “se tiende a la opacidad” y apenas existe regulación al respecto. Hasta el momento, solo hay una norma y es de rango autonómico, la valenciana, que promueve un registro público de algoritmos.

“Se producen situaciones surrealistas”, señala Boix, poniendo un ejemplo: la organización Civio detectó que no funciona bien el algoritmo que determina si una persona tiene o no derecho al bono social y que es obligatorio que utilicen las comercializadoras eléctricas. Civio solicitó conocer el algoritmo, pero el Gobierno se niega a mostrar el código fuente de la aplicación. La Audiencia Nacional le ha dado la razón y ahora la cuestión está pendiente del Tribunal Supremo.

No te quedes solo en este resumen y disfruta con la grabación completa de La Hora Azul sobre «Inteligencia artificial: desafíos éticos y jurídicos». No solo podrás escuchar a Andrés Boix de principio a fin, también conocer las cuestiones planteadas por el público y su diálogo con este experto en Inteligencia Artificial.

Si quieres recibir información sobre las actividades que organizamos en Mainel, suscríbete a nuestro boletín.