08/12/25
IA, aliada para educar sobre el cuerpo y la afectividad
Por: Agustín Gulman
Enviar a un amigo
Los detalles proporcionados en esta página no serán usados para enviar correo electrónico no solicitado y no se venderán a terceros. Ver política de privacidad.
Este artículo fue patrocinado por el Centro Internacional de Investigaciones para el Desarrollo (IDRC) de Canadá.
[BUENOS AIRES, SciDev.Net] “Todos tenemos derecho a recibir información en nuestro idioma natal. Los servicios deben adaptarse a las personas, no al revés”, dice la obstetra Ana Miluzka Baca Gamarra.
Ella es la diseñadora del primer chatbot en idioma quechua que ofrece consejería sobre salud sexual y reproductiva a adolescentes y jóvenes.
Denominado TeleNanu (confidente en quechua), fue desarrollado por un equipo de investigación de la Universidad de San Martín de Porres de Perú (UPSMP), usando un enfoque intercultural, para reducir las brechas de información y empoderar a comunidades marginadas de los Andes.
En algunas regiones del Perú el quechua es el idioma principal, señala Baca, investigadora y docente de la UPSMP.
En total, se estima que alrededor de 8 millones de personas hablan quechua en Bolivia, Ecuador, Perú, Colombia y Argentina.
TeleNanu se basa en un modelo de consejería virtual que usa inteligencia artificial generativa para brindar respuestas adecuadas a las inquietudes del usuario.
Sigue cinco pasos esenciales: establece una relación cordial, identifica y responde a las necesidades, verifica la comprensión y mantiene una comunicación abierta.
Una ventaja respecto de otros chatbots de temas generales, como ChatGPT, es que Telenanu fue desarrollado por obstetras que utilizaron directrices de la Organización Mundial de la salud y del Ministerio de Salud del Perú, así como literatura médica revisada por pares y su propio conocimiento para alimentar a la IA.
Esto le permite “interpretar” las preguntas de usuarios y ofrecer respuestas basadas en esos datos, garantizando que las respuestas reflejen estándares médicos basados en evidencia y no datos aleatorios de internet. Incluso, de ser necesario, recomienda consejería humana.
“La información está certificada por profesionales para evitar daños en la salud de adolescentes”, subraya Baca a SciDev.Net.
Para ella, eso es fundamental porque hasta ahora no existían “espacios diferenciados para adolescentes, apartados de adultos” en quechua.
Pensado inicialmente para atender a adolescentes de Ayacucho, en los Andes centrales del Perú, desde finales de 2024 ha recibido más de 88 mil consultas, incluso del exterior, en quechua y también en castellano, el otro idioma en el que funciona el chatbot.
Víctor Quintanilla, docente de una escuela de esa región, destaca positivamente el uso que le están dando los estudiantes, pues su información es confiable. “Si el material está en quechua pueden leer los contenidos, eso incentiva el uso”, detalla a SciDev.Net.
Otra institución peruana, la ONG Apoyo a Programas de Población (Apropo), lanzó en octubre de este año NOA, un servicio de orientación y educación virtual con IA generativa que, de acuerdo a la institución, ha sido entrenada con datos confiables locales e internacionales que buscan garantizar información fidedigna y segura.
Disponible en WhatsApp, web y redes sociales, está dirigido a adolescentes y población en general que requiera información sobre salud sexual.

Los chatbots y las aplicaciones para dispositivos móviles ayudan a que los adolescentes reciban información veraz y consejerías de orientación sexual. Crédito de la imagen: Charlotte Kesl / World Bank, bajo licencia Creative Commons CC BY-NC-ND 2.0 Deed. La imagen ha sido editada.
El aprovechamiento de la IA para brindar servicios de consejería sexual y reproductiva en el Perú se basa, en gran parte, en las estadísticas que muestran un escaso nivel de conocimientos sobre el tema y un aumento en las enfermedades de transmisión sexual y embarazos precoces.
La información oficial señala que en varias regiones del Perú los adolescentes tienen un inicio sexual temprano y desinformado; que de los 8.053 nuevos casos de VIH reportados en 2024 en ese país, el grupo de edad más afectado es el de 20 a 29 años; que el 12,1 por ciento del total de nacimientos del país correspondió a madres entre los 10 y los 19 años, y que la mortalidad materna adolescente va en aumento.
Constanza Paredes, gerente social de APROPO, confía en que NOA sea un “aliado poderoso para democratizar la información en salud sexual y reproductiva bajo principios de equidad, confidencialidad y derechos humanos”.
Para 2026 esperan alcanzar a 100 mil adolescentes, combinando estrategias digitales y territoriales “lo que permite acceso gratuito y simultáneo a miles de consultas en tiempo real”, indica a SciDev.Net.
Sin embargo, reconoce que para desplegar y aprovechar todo el potencial de la IA para la salud existen aún muchos desafíos, como el acceso a información, falta de datos representativos diversos y éticamente controlados, y “articulación público-privada para desarrollar herramientas con evidencia, pertinencia cultural y lenguaje inclusivo”.
Asimismo, es importante “asegurar que la tecnología no reproduzca estigmas, sesgos o barreras culturales”.

El embarazo adolescente es un grave problema en la región, motivado por falta de información veraz y oportuna, un campo en el que la IA puede ser muy útil. Crédito de la imagen: OPS / Flickr, bajo licencia Creative Commons CC BY-NC 2.0 Deed. La imagen ha sido editada.
Sesgos sobre la comunidad transgénero
“Si la inteligencia artificial no considera nuestros cuerpos, empezarán a borrarnos”, afirma Virginia Silveira, educadora y activista trans argentina. Teme que el avance de modelos de lenguaje automatizados replique la discriminación que su colectivo enfrentó históricamente.
“No accedemos a servicios de salud, no nos nombran como corresponde y no hay apertura respecto de nuestros cuerpos”, resume.
“La IA hoy no está preparada”, “maneja sesgos profundos” y “requiere tener otros abordajes”, asegura a SciDev.Net Silveira, directora del bachillerato Mocha Celis, primera escuela travesti-trans del mundo, que funciona en Buenos Aires.
En Argentina, casi 200 mil personas son trans o con género no binario, según el último censo.
A nivel regional no es posible obtener datos sobre las personas trans ni comunidades LGTB+ fundamentalmente porque, según la Comisión Económica para América Latina (CEPAL), la mayoría de los países no incluyen preguntas sobre identidad de género en sus censos nacionales o encuestas de hogares estandarizadas.
Pero el informe regional No muero, me matan de 2021, señala que la expectativa de vida de la población trans es de 35/40 años, y del 54 por ciento que afirmó haber sido víctima de discriminación el 90 por ciento lo fue en un centro de salud.
Un proyecto del Centro Interdisciplinario de Estudios en Ciencia, Tecnología e Innovación (CIECTI), de Argentina, busca −precisamente− reducir los sesgos en los grandes modelos de lenguaje, que puedan perjudicar a poblaciones en situación de vulnerabilidad en la región, como las personas trans.
Para eso desarrollaron prompts, para interactuar sistemáticamente con modelos de lenguaje (ChatGPT, Gemini, Grok) y analizaron las respuestas. De esta manera se entenderán mejor las limitaciones de esos modelos y se obtendrán algoritmos para reducir daños en los nuevos modelos clínicos y generalistas.
El equipo está conformado por personas cuyo género coincide con el sexo asignado al nacer (cis) y transgénero.
Se trabajó con variaciones controladas de respuestas que permitieron observar el comportamiento de los modelos de lenguaje cuando se explicita que las personas implicadas son trans o son cis.
Los primeros resultados mostraron que los modelos de lenguaje siempre vuelcan conceptos negativos sobre las personas trans y las estigmatizan, patologizan, degradan, invisibilizan.
Asimismo, tienen dificultades para integrar información clínica.
“Si un varón trans y una mujer cis piden turno para una ecografía transvaginal, los modelos sistemáticamente lo otorgan a la mujer cis. Los sesgos podrían bloquear el acceso a la salud”, ejemplifica Enzo Ferrante, integrante del equipo.
“Estos sesgos podrían obstaculizar el acceso a la atención médica”, añade Ferrante, doctor en Informática, investigador del Consejo Nacional de Investigaciones Científicas y Técnicas (Conicet) de Argentina.

La población con género no binario es más propensa a sufrir discriminación de los servicios de salud. La IA puede ayudar a eliminar sesgos en los modelos de lenguaje. Crédito de la imagen: Freepik,
La identificación de daños contribuyó a hacer visibles fenómenos que previamente aparecían sólo como malestar o sospecha, sin un vocabulario fino para nombrarlos, señala Verónica Xhardez, investigadora principal del proyecto.
El equipo ha desarrollado una herramienta para evaluar y clasificar, de manera más sistemática, el daño causado por estos sesgos. En una segunda etapa, recopilarán más datos para mitigar estos sesgos y ayudar a reducir el daño que sufren las personas transgénero en los sistemas de salud.
“Los algoritmos de IA se entrenan con un conjunto de información. Allí comienza el sesgo: cuando aparece una situación distinta a la aprendida, la reacción puede ser inesperada”.
Marcelo Risk, investigador y director del Instituto de Medicina Traslacional e Ingeniería Biomédica del Conicet, Argentina
Para el ingeniero Marcelo Risk, investigador y director del Instituto de Medicina Traslacional e Ingeniería Biomédica del Conicet, la discusión sobre los sesgos es central al tratarse de IA aplicadas a la salud de las minorías.
“Los algoritmos de IA se entrenan con un conjunto de información. Allí comienza el sesgo: cuando aparece una situación distinta a la aprendida, la reacción puede ser inesperada”, explica Risk, quien no es parte de la investigación de CIECTI.
La medicina debe apoyarse en herramientas de IA, “siempre que exista intervención humana en el momento adecuado”, afirma Risk.
Y añade: “Se debería trabajar con la mayor y mejor información posible, en cantidad y calidad”.
Superando los desafíos de la IA
“La IA basa sus respuestas en documentación existente que muchas veces contiene sesgos y no está contrastada científicamente, equipara investigaciones con opiniones o artículos periodísticos”, señala a SciDev.Net Roberto Salvarezza, exministro de Ciencia y Tecnología de Argentina y actual presidente de la Comisión de Investigaciones Científicas de Buenos Aires.
“El gran desafío es integrar el sistema científico al de salud, podría mejorar la calidad de la información” para desarrollar herramientas con IA que potencien la salud sexual reproductiva”, añade.
Además de los sesgos, escalar soluciones y obtener regulaciones, abriendo paso a utilizarlas masivamente, y contar con datos confiables, son otros retos regionales, asegura a SciDev.Net la politóloga Cintia Cejas, coordinadora del Centro de Inteligencia Artificial y Salud para América Latina y el Caribe (CLIAS).
Entre 2023 y 2024, CLIAS impulsó 15 proyectos e investigaciones de IA sobre salud sexual, reproductiva y materna de poblaciones en situación de vulnerabilidad en diversos países de América Latina. El Centro también intercambia experiencias y trabaja con otros países de África, Asia y Medio Oriente.
“Fomentamos que investigadores y desarrolladores se vinculen con sus potenciales usuarios y, a su vez, con el sector privado”.
Cintia Cejas, coordinadora del Centro de Inteligencia Artificial y Salud para América Latina y el Caribe
Para Cejas la implementación de la IA en estos temas debe priorizar la calidad de los datos y las necesitadas de las usuarias. “Es fundamental involucrar a la comunidad”, sostiene, subrayando la necesidad de monitorear y evaluar esas soluciones.

El acceso a datos confiables es un gran reto para los desarrolladores de IA en Latinoamérica, una región con datos dispersos y poco accesibles. Crédito de la imagen: OPS / Flickr, bajo licencia Creative Commons CC BY-NC 2.0 Deed. La imagen ha sido editada.
CLIAS ha diseñado una guía de buenas prácticas para desarrollar conjuntos de datos (datasets) de salud de alta calidad que puedan ser utilizados eficazmente por los algoritmos de IA, con recomendaciones para incorporar la perspectiva de género.
“Fomentamos que investigadores y desarrolladores se vinculen con sus potenciales usuarios y, a su vez, con el sector privado”, agrega.
Según Cejas, el objetivo es que la IA no solo aprenda a procesar datos, sino que sea una aliada en la atención de poblaciones en situación de vulnerabilidad.
Este artículo fue producido por la edición de América Latina y el Caribe de SciDev.Net y patrocinado por el Centro Internacional de Investigaciones para el Desarrollo (IDRC) de Canadá.
El proyecto CLIAS y las subvenciones que apoya cuentan con financiación del IDRC y del Ministerio de Asuntos Exteriores, de la Commonwealth y de Desarrollo del Reino Unido, a través del programa IA para el Desarrollo.
