sábado, 14 de febrero de 2026

Blog Xll

 Si un sistema de Inteligencia Artificial aprende los datos de un humano y reproduce nuestros prejuicios, la responsabilidad es básicamente nuestra, no de la IA. 


Los sistemas de IA no tienen intenciones, opiniones o sentimientos. No se despiertan y eligen discriminar a alguien, solo buscan factores en la información que les damos. Entonces, si los datos que aprende incluyen un trato injusto o desigualdad, la IA puede copiar esos factores sin entender que están mal. 


En ese sentido, la IA puede producir respuestas discriminatorias, pero no es porque quiere, sino porque refleja la sociedad en la que vivimos. Los humanos somos los que elegimos los datos, diseñamos los sistemas, y decidimos cómo va a ser usada. Si en las respuestas hay prejuicios, significa que hubo prejuicios en los datos que los humanos le mandamos. 

Por eso creo que la IA es más como un espejo de nuestra sociedad. Si vemos discriminación en ella, es una señal de que necesitamos mejorar la manera en la que creamos la tecnología y sobretodo la manera en la que nuestra sociedad funciona. 


No hay comentarios:

Publicar un comentario