Los sesgos de los modelos de inteligencia artificial siempre han sido un problema a resolver. Un modelo no debería predecir basado en sesgos en los datos pues estas predicciones no serían representativas de lo que sucede en la realidad. Si bien es cierto, existen casos de uso donde la existencia de sesgos puede provocar un problema de mayor o menor importancia, casi siempre implicando discriminación negativa. Un caso claro donde se generan grandes problemas es la predicción de riesgo crediticio.
Probablemente conozcas varios métodos para intentar reducir el efecto de estos sesgos. Durante los últimos años, la cantidad de problemas donde el sesgo es un tema fundamental se ha multiplicado. Esto se debe principalmente a que la cantidad de aplicaciones se ha ampliado como consecuencia de la adopción por parte del gran público de los modelos de inteligencia artificial generativos.
Como ya comentamos en una anterior edición, las aplicaciones de la inteligencia artificial prometen y están consiguiendo revolucionar la industria. Todos sabemos ya que la generación de vídeos va a revolucionar la forma en que el marketing y las campañas publicitarias se realizan. Sin embargo, la muchas veces tabú, generadora de miles de millones de dólares anuales y gran olvidada industria militar también es una gran beneficiada de esta revolución.
La idea para crear este escrito surgió tras leer el artículo publicado en el periódico “The Guardian” sobre una aplicación de inteligencia artificial en la actual guerra entre Israel y el grupo terrorista Hamas. En ella se relata cómo “Lavender”, un sistema de inteligencia artificial del ejército de Israel, detecta los puntos donde Hamas se esconde. Puntos que posteriormente pueden ser bombardeados.
El debate surge por sí solo: cómo controlar el sesgo en este tipo de problemáticas donde la predicción del modelo puede, en el peor de los casos, decidir entre la vida y la muerte. En este caso, se utiliza una base de datos del propio Israel sobre los diferentes puntos de Hamas detectados en el pasado. La dificultad del problema es mayúscula. Además, tal y como se relata en el artículo, los miembros entrevistados usuarios del programa relatan qué dependiendo cómo se defina el baremo de “puntos de riesgo” el número de objetivos identificados puede variar notablemente con todo lo que ello implica.
La historia nos ha enseñado que en la guerra no hay reglas y la necesidad de imponerse sobre el enemigo puede llevar a hacer barbaridades. Como se diría coloquialmente: “cueste lo que cueste”. En este sentido, la aplicación de la inteligencia artificial aporta grandes avances para el bando que la use pues reduce el tiempo de detección de objetivos y la toma de decisiones. Pese a que el debate sobre la intervención humana en este tipo de problemáticas es natural, la celeridad con la que los actores del conflicto pueden actuar, por miedo a que el enemigo “se adelante”, puede llevar a olvidarlo.
Con todo ello, te animo a reflexionar sobre este tema y cómo la política de código abierto puede ayudarnos como sociedad a comprender cómo funcionan los modelos de inteligencia artificial con el objetivo de contribuir a dar solución a estos dilemas y evitar que un sistema sesgado pueda llegar a tomar este tipo de decisiones.
https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes