Actualidad
El Sesgo y la Justicia en la Inteligencia Artificial
En una entrevista reciente al filósofo y tecnólogo David Weinberger, cuyo trabajo se centra en cómo Internet está cambiando las relaciones humanas, la comunicación, el conocimiento y la sociedad, señala que estamos confiando cada vez más en máquinas que extraen conclusiones de modelos que ellas mismas han creado y que, a veces, están más allá de la comprensión humana, porque sus reglas conciben el mundo de una manera diferente a nuestra forma de pensar.
En ocasiones, parece ser que estos modelos con los que el aprendizaje automático entiende el mundo parecen resultar más precisos o veraces que nuestra propia manera de analizar o de entender.
Se ha demostrado que la IA puede amplificar las injusticias en la sociedad y que es posible que eso sea algo muy difícil de evitar, por lo que supone un problema. Otra forma de verlo es que, quizás, estemos aprendiendo sobre nuestro propio concepto de imparcialidad gracias a los resultados que se están obteniendo como resultado de aplicar la Inteligencia Artificial.
Si queremos que un sistema de Machine Learning sea justo, primero hay que tener en cuenta qué tipo de imparcialidad se debe tener en cuenta a la hora de entrenarlo. Es por ello, que cada vez más estamos asistiendo a innumerables debates en torno a lo que nos parece justo e injusto. Tal y como ha expresado Weinberger, “ya no se trata de lograr una IA justa, sino que la propia IA está haciendo mucho por nosotros porque nos obliga a revisar las diferentes ideas de justicia que las personas tenemos”.
En varias ocasiones se ha detectado que las conclusiones de muchos algoritmos que se basan en la Inteligencia Artificial, no solo están repitiendo los sesgos que introducimos los humanos, sino que incluso podrían amplificarlos. No está muy claro que siempre vayamos a ser capaces de detectar el punto en el que se han equivocado, precisamente porque a veces no sabemos cómo entienden el mundo, a la par que estos modelos cada vez serán más complejos.
Es un hecho que, cada vez más, las empresas están creando sistemas que aprenden tareas mediante el análisis de grandes cantidades de datos, incluidas las fotos, los sonidos, el texto y las grabaciones audiovisuales, incluso de datos generados en tiempo real. La creencia era que, si un sistema aprendía de la mayor cantidad de datos posible, se seguiría la justicia, pero muchas veces, se ha demostrado que esto no es así.
A fines de 2019, los reguladores estatales de Nueva York abrieron una investigación a UnitedHealth Group después de que un estudio descubrió que un algoritmo utilizado priorizaba la atención de los pacientes blancos sobre los negros, incluso cuando los pacientes blancos eran más saludables.
Ese mismo año se investigó el servicio de crédito Apple Card, después de una demanda que aseguraba que discriminaba a las mujeres.
También se ha dado el caso de que sistemas de visión artificial no reconozcan rostros diferentes a los asiáticos, ya que la empresa que comercializaba el producto había sesgado la muestra de entrenamiento. Otro caso importante ocurrió en Nueva York, cuando los prejuicios de los diferentes agentes de la policía se colaron en la identificación de sospechosos. No intencionados e inconscientes, pero prejuicios.
A menor heterogeneidad en los conjuntos de datos que entrenan a estas redes neuronales, más sesgo tendrán las máquinas. Hoy tenemos la capacidad de crear, gracias a la tecnología, una sociedad más justa, pero para ello necesitamos unas bases más equilibradas.
Muchos en la industria de la tecnología creen que las empresas deben comenzar a prepararse para estar sujetas a algún tipo de legislación o regulación. En abril de este año, 2021, la Comisión Federal de Comercio de EEUU advirtió contra la venta de sistemas de inteligencia artificial que tuvieran prejuicios raciales o pudieran impedir que las personas recibieran empleo, vivienda, seguro u otros beneficios.
Una semana después, la Unión Europea dio a conocer un borrador de regulaciones que podrían sancionar a las empresas que generen software o herramientas que creen un sesgo.