Abstract
Frente a la retórica instalada en clave de una inteligencia artificial (IA) eficiente y libre de prejuicios, nuestra propuesta en este artículo es argumentar por qué esta visión tan popular de la IA es inadecuada y examinar algunas de sus derivas en el trazado de políticas públicas. En primera instancia, argumentaremos que es imposible –por principio– plantear una IA valorativamente neutra, a partir de lo señalado por algunos aportes filosóficos tanto canónicos como contemporáneos. En la segunda sección analizaremos un caso que ilustra de modo diáfano la carga valorativa que gravita en la IA. Esto nos llevará a indagar, en la tercera sección, los diferentes niveles en los cuales los sesgos pueden tener injerencia en la IA. Nuestro objetivo central es explicitar la paradoja consistente en cómo la aplicación de IA en políticas públicas y en la toma de decisiones en ámbitos privados, lejos de ser una herramienta para combatir desigualdades estructurales, termina consolidando escenarios perjudiciales para poblaciones vulnerables.
Cite
CITATION STYLE
Pedace, K., Schleider, T., & Balmaceda, T. (2023). Inteligencia artificial y sesgos. El caso de la predicción del embarazo adolescente en Salta. Revista Iberoamericana de Ciencia Tecnología y Sociedad, 18(53), 9–26. https://doi.org/10.52712/issn.1850-0013-359
Register to see more suggestions
Mendeley helps you to discover research relevant for your work.