Un método pionero para diseñar algoritmos éticos y responsables

by Kevin

La inteligencia artificial (IA) se usa para recomendarnos películas o hacer videojuegos visualmente espectaculares. Pero también para filtrar currículos en la contratación de personal, para calcular la solvencia crediticia de las personas, para prever las zonas de mayor criminalidad de las ciudades o hasta para estimar las posibilidades de que un niño vaya a sufrir malos tratos. Precisamente porque estos sistemas están asumiendo tareas cada vez más relevantes conviene procurar que no discriminen ni perjudiquen a la población. Tratar de conseguirlo es complicado: hace falta estudiar muy bien todo el proceso de creación del algoritmo, desde su diseño teórico hasta la base de datos con la que se nutre, pasando por la forma de implementarlo o las personas a las que afectará. Es un proceso complejo y costoso, y precisamente por eso brilla por su ausencia en la inmensa mayoría de los casos.

Dos empresas españolas de referencia en el sector se han propuesto diseñar sistemas de inteligencia artificial que cumplan esos estándares en los llamados ámbitos de alto impacto (salud, empleo, educación, seguridad, servicios sociales o justicia). Se trata de Eticas, especializada en auditar algoritmos, y la desarrolladora de software Sngular. Ambas firmas emplearán una metodología pionera, inédita en este país, que ralentizará los tiempos de entrega, ya que se evaluarán y tratarán de pulir los posibles efectos negativos del sistema desde antes de que se ponga en marcha, pero que garantizará unos resultados más limpios.

¿Cómo lo harán? La idea de fondo es aportar una visión más amplia de la que tiene un ingeniero, que no necesariamente está formado para entender el contexto en el que se va a aplicar una herramienta que tenga impacto social. Eso se consigue con equipos multidisciplinares. Se necesitan ingenieros, claro, pero también trabajadores sociales, juristas o filósofos. “Para construir un edificio hacen falta arquitectos, albañiles, electricistas, fontaneros… No se le puede confiar todo el trabajo al electricista. En la tecnología de alto impacto lo estamos haciendo”, ilustra Gemma Galdon, consejera delegada de Eticas.

La UE es consciente de que los algoritmos de alto impacto necesitan ser mirados con lupa. Bruselas prepara una directiva que, previsiblemente, contemplará medidas de supervisión para los sistemas de IA que se apliquen a actividades especialmente sensibles, aquellas en las que se debe exigir un margen de error algorítmico mínimo. Si finalmente se incluyen medidas coercitivas, posiblemente las tecnológicas empiecen a dedicarle más tiempo y recursos a pensar qué posibles externalidades negativas pueden propiciar sus algoritmos.

En España, la Secretaría de Estado para la Digitalización y la Inteligencia Artificial trabaja en la confección de la Agencia de Evaluación de Algoritmos. Este organismo, creado por una petición expresa de Más País para apoyar los presupuestos de 2022 (aunque la secretaría de Estado tenía ya previsto desarrollar un ente similar), se encargará de clasificar el riesgo que presenten los algoritmos y tendrá capacidad sancionadora.

La intención de Eticas y Sngular es desarrollar de cero algoritmos que cumplan con creces esos estándares. Para ello combinarán la auditoría con el diseño técnico. “Cuando hacemos una auditoría algorítmica analizamos todo el ciclo de vida del algoritmo, desde la elección de las bases de datos del entrenamiento hasta la implementación de un sistema algorítmico”, explica Galdon. “Tenemos hasta 20 puntos de identificación de sesgos e ineficiencias y hacemos pruebas en cada uno de ellos para asegurar que no se produzcan. Cuando identificamos esas ineficiencias las subsanamos, intervenimos incorporando datos sintéticos y normas dentro de los algoritmos para asegurar que esa disfunción, ineficiencia o sesgo no se reproduce”.

You may also like

Leave a Comment