Método nuetrosófico multicriterio para evaluar los algoritmos discriminatorios de la Inteligencia Artificial.
Palabras clave:
método neutrosófico multicriterio, inteligencia artificial, discriminación algorítmica, derechos fundamentalesResumen
La presente investigación examina cómo la inteligencia artificial (IA) impacta los derechos fundamentales, enfocándose en la discriminación algorítmica. El objetivo es implementar un método neutrosófico multicriterio para evaluar los algoritmos discriminatorios de la inteligencia artificial, así como evaluar los principales sistemas de IA y sus efectos sobre la igualdad y la no discriminación. A lo largo del análisis, se identificaron sesgos en los datos de entrenamiento que pueden conducir a decisiones discriminatorias; un ejemplo claro es la plataforma Canva, que asocia la pobreza con personas indígenas. Esta investigación subraya la importancia de la transparencia y la rendición de cuentas en los algoritmos de IA, proponiendo que el uso del método neutrosófico no solo ayudará a identificar y evaluar sesgos, sino que también facilitará el desarrollo de recomendaciones para mitigar la discriminación y asegurar la protección de los derechos fundamentales. Así, se busca contribuir a la creación de sistemas de IA más justos y equitativos, promoviendo la igualdad y la no discriminación en su implementación.
