Método nuetrosófico multicriterio para evaluar los algoritmos discriminatorios de la Inteligencia Artificial.

Contenido principal del artículo

Paúl Orlando Piray Rodríguez
Guido Javier Silva Andrade
Josselyn Estefanía Yaulema Colcha
Cynthia Belén Chango Paguay

Resumen

La presente investigación examina cómo la inteligencia artificial (IA) impacta los derechos fundamentales, enfocándose en la discriminación algorítmica. El objetivo es implementar un método neutrosófico multicriterio para evaluar los algoritmos discriminatorios de la inteligencia artificial, así como evaluar los principales sistemas de IA y sus efectos sobre la igualdad y la no discriminación. A lo largo del análisis, se identificaron sesgos en los datos de entrenamiento que pueden conducir a decisiones discriminatorias; un ejemplo claro es la plataforma Canva, que asocia la pobreza con personas indígenas. Esta investigación subraya la importancia de la transparencia y la rendición de cuentas en los algoritmos de IA, proponiendo que el uso del método neutrosófico no solo ayudará a identificar y evaluar sesgos, sino que también facilitará el desarrollo de recomendaciones para mitigar la discriminación y asegurar la protección de los derechos fundamentales. Así, se busca contribuir a la creación de sistemas de IA más justos y equitativos, promoviendo la igualdad y la no discriminación en su implementación.  

##plugins.themes.bootstrap3.displayStats.downloads##

##plugins.themes.bootstrap3.displayStats.noStats##

Detalles del artículo

Cómo citar
Método nuetrosófico multicriterio para evaluar los algoritmos discriminatorios de la Inteligencia Artificial . (2025). Neutrosophic Computing and Machine Learning. ISSN 2574-1101, 36, 94-102. http://fs.unm.edu/NCML2/index.php/112/article/view/670
Sección
Articulos

Cómo citar

Método nuetrosófico multicriterio para evaluar los algoritmos discriminatorios de la Inteligencia Artificial . (2025). Neutrosophic Computing and Machine Learning. ISSN 2574-1101, 36, 94-102. http://fs.unm.edu/NCML2/index.php/112/article/view/670