¿Qué pasaría si el sistema automatizado que decide trayectorias de vida estuviera equivocado? | Global University - We are the change

Noticias

¿Qué pasaría si el sistema automatizado que decide trayectorias de vida estuviera equivocado?

Un análisis sobre el impacto de la inteligencia artificial en la salud, el empleo y la educación de la juventud.

 

Por Rolando Martínez Cornejo

Docente en la Carrera Comercio Global e Innovación en Negocios, Global University

 

Editado por Dr. en C. José Luis Muñoz Carrillo

Director del CIIGU

En diversos procesos sociales contemporáneos —como la asignación de becas, la programación de citas médicas o los procesos de selección laboral— se observa una creciente intervención de sistemas automatizados de toma de decisiones. En estos contextos, la ausencia de respuesta, la asignación de condiciones desfavorables o la exclusión de oportunidades no siempre responde a decisiones humanas directas, sino a modelos algorítmicos que determinan qué solicitudes son atendidas, cuáles se priorizan y cuáles se descartan.


Este tipo de decisiones ocurre, en la mayoría de los casos, sin mecanismos claros de explicación, justificación o derecho a réplica para las personas afectadas. La característica más relevante de este fenómeno es su invisibilidad: procesos que operan sobre grandes volúmenes de datos, incorporando variables históricas, contextuales o proxy, y que generan resultados presentados como “óptimos”, sin que sea evidente bajo qué criterios se define dicha optimización.


En este marco, la inteligencia artificial (IA) ha dejado de ser una herramienta emergente para convertirse en una infraestructura cotidiana de toma de decisiones. Esto plantea una interrogante central: ¿estos sistemas están contribuyendo a mejorar la equidad en los procesos sociales o están reproduciendo, de forma sistematizada, las desigualdades preexistentes?


Desde la literatura académica y los debates contemporáneos, se identifican dos posturas principales. Por un lado, una perspectiva crítica sostiene que estos sistemas constituyen una arquitectura de desigualdad automatizada, en la medida en que utilizan datos históricos de exclusión para proyectar probabilidades futuras, reforzando patrones de estratificación social. Bajo este enfoque, la inteligencia artificial prescribe la realidad que solo debería describir. Por otro lado, una postura tecnocrática plantea que los sistemas algorítmicos evidencian la desigualdad, más no la generan, al procesar información que ya contenía sesgos estructurales. Desde esta perspectiva, la IA funcionaría como un mecanismo de diagnóstico de las fallas humanas. No obstante, ambas posturas coinciden en que las decisiones automatizadas están influyendo de manera directa en ámbitos críticos de la vida de la juventud. Estos procesos operan dentro de lo que el sociólogo Bruno Latour conceptualizó como “caja negra”: sistemas altamente eficientes cuya lógica interna deja de ser cuestionada, mientras el resultado es visible pero el proceso permanece opaco. En este sentido, la desigualdad puede reproducirse sin ser detectada.


Salud: eficiencia operativa y penalización de la vulnerabilidad logística


Uno de los ámbitos donde este proceso se manifiesta con mayor claridad es el sector salud. En la gestión de citas médicas, diversos sistemas de inteligencia artificial han sido implementados para predecir la probabilidad de inasistencia de los pacientes, con el objetivo de optimizar el uso de recursos médicos escasos. Estos modelos utilizan variables como la distancia geográfica al centro de salud, el perfil socioeconómico o los patrones históricos de asistencia. Como resultado, jóvenes que residen en zonas periféricas o en condiciones socioeconómicas vulnerables son etiquetados como pacientes de “alto riesgo de inasistencia”.


A partir de esta clasificación, los sistemas asignan horarios menos convenientes o los incorporan en bloques con sobrecupo. Si bien la lógica operativa responde a la eficiencia, en la práctica se genera un efecto adverso: se penaliza la vulnerabilidad logística, asociada a factores como la dependencia del transporte público, la precariedad laboral o la necesidad de apoyo de terceros para el traslado. Para estos sistemas, la desigualdad deja de ser un problema para resolver y se convierte en una variable operativa.


Salud mental: la IA como soporte emergente en contextos de saturación institucional


El uso de inteligencia artificial en salud mental ha crecido de forma significativa en los últimos años, particularmente entre la población joven. Este fenómeno se explica por la insuficiencia estructural de servicios de atención psicológica y psiquiátrica en sistemas públicos de salud, así como por factores culturales y de acceso.


Diversos estudios han identificado que aproximadamente el 35% de las personas jóvenes entre 25 y 34 años ha utilizado herramientas digitales basadas en IA para obtener orientación emocional. Esta tendencia responde a una brecha real de atención: la disponibilidad de especialistas es limitada y los tiempos de espera son prolongados. En este escenario, la IA funciona como un mecanismo de apoyo inmediato. Sin embargo, la literatura especializada advierte que estos sistemas carecen de sensibilidad clínica suficiente para detectar riesgos complejos, como conductas de autolesión o trastornos de la conducta alimentaria. Asimismo, pueden estar entrenados con datos que no reflejan la diversidad cultural de los usuarios ni sus necesidades concretas.


En el contexto mexicano, investigaciones de instituciones como la UNAM, el IMSS y el ISSSTE han identificado lo que se denomina la “ilusión de neutralidad”, es decir, la percepción de objetividad en sistemas que en realidad pueden invisibilizar necesidades específicas de poblaciones vulnerables. En consecuencia, el debate es profundamente social y no exclusivamente técnico.


Empleo: normalización algorítmica y exclusión estructural


El acceso al empleo constituye otro ámbito donde la intervención algorítmica es cada vez más determinante. Se estima que el 99% de las empresas Fortune 500 utiliza sistemas automatizados de filtrado de talento en sus procesos de reclutamiento. Sin embargo, la evidencia empírica demuestra que estos sistemas reproducen sesgos estructurales. Investigaciones de la Universidad de Stanford (2025) identificaron un “sesgo de madurez”, mediante el cual los algoritmos asignan puntuaciones más altas a candidatos varones de mayor edad frente a mujeres y jóvenes con calificaciones equivalentes.


De forma similar, estudios de la Universidad de Washington evidencian que los modelos de lenguaje favorecen nombres asociados a personas blancas en más del 85% de los casos. Adicionalmente, herramientas de entrevistas por video basadas en análisis de microexpresiones pueden penalizar a personas con autismo, TDAH o discapacidades físicas, poniendo en riesgo de rechazo a priori a perfiles competentes e incluso sobrecalificados.


Aun cuando se eliminan variables explícitas como género o raza, los sistemas utilizan variables proxy —como el código postal, la escuela de procedencia o el estilo lingüístico— para inferir el nivel socioeconómico del candidato. En consecuencia, la discriminación no desaparece, sino que se transforma en una forma más sofisticada y menos visible.


Educación: optimización financiera y desigualdad de oportunidades


En el ámbito educativo, la implementación de sistemas de predicción de inscripción y asignación de becas ha introducido nuevas dinámicas en la distribución de apoyos económicos. Estos sistemas estiman la probabilidad de que un estudiante acepte una oferta educativa y, con base en ello, determinan el monto de apoyo necesario para asegurar su matrícula. En términos operativos, esto puede traducirse en una reducción del apoyo financiero a estudiantes con menor acceso a alternativas educativas, bajo la premisa de que aceptarán la oferta disponible. De este modo, la lógica de optimización financiera puede entrar en conflicto con el principio de equidad educativa.



México: un marco regulatorio en desarrollo


En el contexto mexicano, la regulación del sesgo algorítmico se encuentra en una etapa incipiente. Actualmente, no existe una legislación específica que regule y transparente el uso de inteligencia artificial en la toma de decisiones en ámbitos como salud, empleo o educación. A pesar de que el país participa en marcos internacionales como la OCDE y la UNESCO, estos funcionan principalmente como lineamientos éticos no vinculantes. En consecuencia, el desarrollo de criterios regulatorios ha sido impulsado principalmente por la academia.


Instituciones como la UNAM y la Universidad Panamericana han propuesto la implementación de auditorías algorítmicas obligatorias, transparencia en los datos de entrenamiento y mecanismos de protección para grupos vulnerables. No obstante, en la práctica, muchos de estos sistemas continúan operando como “cajas negras” sin supervisión pública efectiva.


Transparencia y justificación de decisiones: condiciones mínimas para la equidad


La transparencia constituye el eje central de la discusión actual sobre inteligencia artificial. Sin transparencia no es posible auditar los sistemas; sin auditoría no es posible identificar sesgos; y sin identificación no existe posibilidad de justicia. Al mismo tiempo, la transparencia implica un derecho fundamental: que las personas puedan comprender por qué una decisión automatizada les afectó. Esto incluye el acceso a explicaciones funcionales, la identificación de variables determinantes y la existencia de mecanismos de impugnación. En jurisdicciones como la Unión Europea, estos principios han sido incorporados en marcos normativos como el Reglamento de Inteligencia Artificial, que clasifica como de alto riesgo los sistemas utilizados en salud, empleo y educación, exigiendo su auditabilidad, justificación de decisiones y supervisión humana. En México, estos desarrollos se encuentran en una fase inicial, caracterizada por una construcción normativa en proceso.


Conclusión


El debate sobre la inteligencia artificial no puede limitarse a su dimensión técnica. Se trata de una discusión ética, legal y social sobre la forma en que se distribuyen las oportunidades en la sociedad. La adopción de sistemas automatizados de toma de decisiones debe contemplar mecanismos de control que garanticen transparencia, auditoría, supervisión humana y diversidad social en el diseño de estas tecnologías.


En la medida en que estos sistemas continúen expandiéndose en ámbitos fundamentales de la vida social, resulta indispensable desarrollar marcos regulatorios y culturales que aseguren que la eficiencia tecnológica no se imponga sobre los principios de equidad y dignidad humana.


La pregunta que subyace es profundamente social: ¿qué ocurre cuando decisiones que afectan trayectorias de vida se delegan a sistemas que pueden estar equivocados, sin que exista un mecanismo para cuestionarlos?


Cierre

Este análisis busca mostrar cómo el contexto cultural, legal y tecnológico moldea experiencias humanas de forma imperceptible. Este texto tiene fines exclusivamente divulgativos y reflexivos. Pretende equiparar realidades nacionales con las internacionales sin atribuir causalidades únicas, con el objetivo de promover una comprensión comparada de fenómenos sociales complejos desde una perspectiva cultural, legal, tecnológica y humana.


Fuentes:

Consejo de la Juventud de España & Oxfam Intermón. (2024). Equilibristas: Las acrobacias de la juventud para sostener su salud mental en una sociedad desigual. 

Delgado López, I. (2024). El impacto de los sistemas algorítmicos en los procesos de selección de personal. Análisis jurídico-laboral a la luz del nuevo Reglamento europeo en materia de inteligencia artificial. Revista de Trabajo y Seguridad Social. CEF, (483), 49-82. 

Engler, A. (2021, 14 de septiembre). Enrollment algorithms are contributing to the crises of higher education. The Brookings Institution / TechPolicy.Press. 

IMOP-BERB?S. (2025, 17 de octubre). Casi el 35% de los jóvenes de 25 a 34 años de los que usan inteligencia artificial, la emplean para consultar temas relacionados con la salud mental. Sala de Prensa Berbés. 

Latour, B. (1999). Pandora's hope: Essays on the reality of science studies. Harvard University Press. Citado en Arquitectura de la Inequidad Automatizada.

Morales Ramírez, G. (2023). Problemática antropológica detrás de la discriminación generada a partir de los algoritmos de la inteligencia artificial. Medicina y ética, 34(2), 429-455. 

Ortiz Brizuela, E., & López Luis, B. A. (2025, 10 de diciembre). Sesgos algorítmicos y aprendizaje automático. ¿Puede la inteligencia artificial profundizar la desigualdad en salud? UNAM Internacional, (11). 

Unión Europea. (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas sobre inteligencia artificial (Ley de IA). Diario Oficial de la Unión Europea. 

Valenzuela-Núñez, C. I., Troncoso Espinosa, F. H., & Latorre-Núñez, G. O. (2023). Predicción del ausentismo en citas médicas mediante Machine Learning. Universidad, Ciencia y Tecnología, 27(120), 108-119. 

Wilson, K., & Caliskan, A. (2025, 25 de abril). Gender, race, and intersectional bias in AI resume screening via language model retrieval. The Brookings Institution / University of Washington. 


Este contenido forma parte de las actividades de divulgación científica del Centro de Investigación e Innovación Global University (CIIGU).

"NO a la memorización, SÍ a la innovación, la disrupción y el emprendimiento."

Contacto

Av Independencia 2134, Trojes de Alonso, CP 20116 Aguascalientes, Ags.

info@globaluniversity.edu.mx

+52 449 500 0520

Políticas de pago, cancelación y reembolsos
Aviso de Privacidad

Deposita aquí tus dudas académicas, económicas o existenciales. Para eso estamos.