Hace falta inteligencia humana real detrás para realizar pruebas aleatorias que muestren cómo actúa la IA en circunstancias diversas.
Es curioso que hayamos llegado a un punto en el que la tecnología esté tan normalizada y los avances sean tan cotidianos, que hablar de inteligencia artificial (IA) se volvió cliché. “El que no se monte a este barco quedará relegado”, escuchamos a diario.
Todos queremos subirnos a la ola. Los despachos de abogados a nivel global ya están pensando en cómo mantendrán y expandirán su valor si, de repente, una herramienta tecnológica puede resolver el 90% de las preguntas sobre la legalidad de un acto. Los departamentos de talento humano también observan cómo, al menos un 60% de sus procesos podrían ser asumidos por un aplicativo bien entrenado.
La IA es una mega tendencia global y en esta columna, lejos de invitar a que usted y su empresa la incorporen, quiero reseñar algunos riesgos que podrían esconderse tras la euforia colectiva. Desde luego que trasladar procesos humanos a la IA tiene ventajas objetivas: cuesta menos, las probabilidades de error se minimizan y las máquinas aprenden sistemáticamente, por lo que la experiencia se traduce con rapidez en mejores resultados. Es realmente seductor. Sin embargo, la incorporación de IA sin un programa bien diseñado puede exponernos a riesgos legales.
Pensemos en un caso que hoy suscita debate en los Estados Unidos. Una empresa reemplaza por un software a cinco personas del área de talento humano que se dedicaban a selección de personal. Cuando alguien aplica al puesto de trabajo, ya no es un humano quien estudia y evalúa el perfil, sino una máquina. Esto genera eficiencias porque el software es ágil, elige objetivamente, y, técnicamente hablando, es incorruptible. Todo va bien hasta que un día, una aplicante es rechazada pero decide aplicar de nuevo con un perfil en el que declara ser más joven. Esta vez consigue una entrevista. A la plataforma le gustan las personas más jóvenes para el cargo. Algo parecido ocurre con el género. La aplicación prefería hombres que mujeres.
Unos doscientos aplicantes demandaron y la empresa negoció un acuerdo por US$ 365.000, un hito en la industria. ¿Qué nos dice este caso? Primero, que la IA no es más que una herramienta diseñada por humanos cuyos presupuestos también pueden estar atados a prejuicios o, peor, responder a condiciones discriminatorias. En este sentido, la inteligencia no es tan artificial, pues en un inicio hay humanos detrás codificando un mundo sobre el cual la máquina empieza a pensar. Segundo, requiere un uso humano inteligente. El software podría estar trabajando bajo presupuestos ilegales, que son eficientes o que, siendo aceptables en el lugar donde se diseñó, no cumplen los estándares de la ley local.
Así las cosas, hace falta inteligencia humana real detrás para realizar pruebas aleatorias que muestren cómo actúa la IA en circunstancias diversas, frente a ciertos grupos. Los monitoreos deben ser constantes para entender cómo están aprendiendo, pues la esencia de estas aplicaciones es que se hacen mejores con el tiempo. También se requieren auditorías de sesgo para verificar las preferencias en las decisiones del software (Nueva York, por ejemplo, ya lo exige a todos los empleadores).
Y lo más importante: los problemas surgen cuando la IA gana autonomía y se maneja sola. Hay quien dirá que este es, precisamente, su mayor objetivo, librar a los humanos de procesos que pueden ser asumidos por la máquina. Mi consejo es que eso no ocurra y que, ante cada decisión de incorporar un programa con IA, haya detrás un programa que lo controle, anticipe sus riesgos y postule los dilemas éticos tras su implementación. Si los litigios en esta materia han aumentado, es porque, ni la herramienta es tan inteligente, ni tan artificial.
Víctor Cabezas Albán es consultor empresarial, LLM y doctorando en Derecho U. Pennsylvania.