
¡Ay, la tecnología! Qué maravilla, ¿verdad? Nos promete eficiencia, justicia y un futuro más brillante. Pero a veces, la realidad nos golpea con una buena dosis de ironía, y los funcionarios del Departamento de Servicios Humanos (DHS) de Pensilvania lo saben muy bien. Parece que su flamante sistema de Inteligencia Artificial para gestionar ayudas sociales es tan, tan… «no discriminatorio», que está causando un revuelo de tres pares de narices.
El asunto es este: el DHS de Pensilvania se vio en la tesitura de investigar su propio sistema automatizado de inscripción y renovación de beneficios. ¿El motivo? Varias quejas que apuntaban a una posible discriminación contra personas con discapacidad. ¡Alarmante, sí! Pero aquí viene lo bueno.
Tras un concienzudo examen, los dignísimos funcionarios estatales llegaron a una conclusión que roza lo surrealista: el sistema de IA, en sí mismo, «no discriminaba directamente» a nadie. ¡Bravo por el algoritmo, que es un santo! Sin embargo, y aquí viene el «pero» del tamaño de un camión, admitieron que el sistema «impactaba de forma desproporcionada» a las personas con discapacidad. ¿Cómo es posible, dices? Pues sí, es posible. Es como decir que tu coche no atropelló al peatón, pero que justo en ese momento, el peatón se tiró debajo de las ruedas sin querer.
La clave está en cómo funciona el sistema. Para recibir o renovar estas ayudas vitales, los solicitantes tienen que enviar papeleo, ya sea online o por correo postal, respetando unas fechas límite de esas que no perdonan. Si te pasas, adiós muy buenas. Y aquí es donde la IA, siendo tan «justa», mete la pata hasta el fondo sin querer. Muchas personas con discapacidad se enfrentan a barreras importantes: acceso limitado a la tecnología, dificultades para navegar por interfaces online complejas, o simplemente la imposibilidad física o cognitiva de cumplir con plazos estrictos y trámites burocráticos sin ayuda.
En resumen, la IA era «ciega» a la discapacidad en el sentido de que trataba a todos por igual, pero esa igualdad, en un mundo desigual, se convierte en una barrera insalvable para los más vulnerables. Los funcionarios, con una seriedad que casi da risa, han declarado que están «preocupados» por este «impacto dispar». ¡Menos mal que están preocupados! Y prometen buscar soluciones para «mitigar los problemas», simplificar procesos y, quizás, incluso ofrecer un poquito de ayuda humana. ¡Qué detalle!
Al final, la moraleja de esta historia es que, por muy inteligente que sea la Inteligencia Artificial, siempre le hará falta un poquito de humanidad y sentido común para no acabar creando más problemas de los que resuelve. O al menos, para que los funcionarios no tengan que decir que algo «no discrimina» mientras ven cómo, en la práctica, sí lo hace.
