ESI UCLM
HomeOpiniónComprender antes de predecir: cuando la inteligencia artificial necesita explicarse

Comprender antes de predecir: cuando la inteligencia artificial necesita explicarse

Jared Guerrero Sosa

Comprender antes de predecir: cuando la inteligencia artificial necesita explicarse

Por Jared Guerrero Sosa, investigador del grupo SMILE.

Vivimos rodeados de datos. En el ámbito académico y profesional es cada vez más habitual dejar rastro en forma de texto, audio o vídeo: clases online, presentaciones orales, tutorías, entrevistas, reuniones o consultas. La inteligencia artificial se ha convertido en una herramienta clave para analizar toda esta información y detectar patrones que, a simple vista, pueden pasar desapercibidos.

Y hay que reconocerlo: lo hace muy bien. Clasifica, resume y predice con una precisión que, en muchos casos, impresiona. El problema aparece cuando confundimos esa capacidad de acierto con comprensión real. Porque cuando hablamos de personas —de cómo aprendemos, cómo nos comunicamos o cómo expresamos emociones—, acertar no siempre equivale a entender.

Durante mucho tiempo, muchos enfoques computacionales han asumido que el comportamiento humano podía describirse mediante cálculos rigurosos y perfectamente delimitados. El inconveniente es que raramente funcionamos así. Las emociones, las actitudes o los procesos de comprensión están llenos de matices, zonas grises e incertidumbre, y tratar de forzarlos a valores exactos no siempre conduce a mejores interpretaciones.

Esta cuestión tiene consecuencias muy reales. En contextos sensibles como la educación o la salud, las decisiones apoyadas por sistemas inteligentes tienen un impacto directo en las personas. En estos escenarios no basta con obtener un resultado final. Docentes, profesionales y responsables necesitan conocer qué señales han sido relevantes y con qué grado de confianza debe interpretarse el resultado.

Aquí es donde la explicabilidad deja de ser un extra y se convierte en una necesidad. Un sistema explicable no se limita a dar una respuesta, sino que permite seguir el razonamiento que hay detrás. Esto no solo genera confianza, sino que también facilita detectar errores o interpretaciones poco ajustadas a la realidad. No es un añadido estético, sino una condición necesaria para darle un voto de confianza. En efecto, es inteligencia.

En este contexto se enmarca mi trabajo de investigación, centrado en analizar de forma conjunta distintas señales como el lenguaje, la voz o la expresión facial para interpretar patrones de aprendizaje y comportamiento humano. La idea clave no es solo combinar datos, sino hacerlo de manera que los resultados puedan visualizarse y entenderse por personas, no únicamente por máquinas.

Este enfoque resulta especialmente interesante en educación. Más allá de una calificación o un resultado numérico, permite ofrecer un feedback más rico sobre el aprendizaje a partir del desarrollo de habilidades transversales. En lugar de limitarse a señalar una nota sin un rumbo claro a seguir, abre la puerta a comprender qué aspectos funcionan y cuáles pueden mejorar, convirtiendo la tecnología en una herramienta de apoyo y no en un juez silencioso.

En el ámbito de la salud, esta necesidad de interpretación cuidadosa es aún más evidente. Un sistema opaco puede generar desconfianza; uno explicable, en cambio, puede servir como apoyo real a los profesionales, siempre manteniendo a la persona en el centro del proceso, que es más importante que cualquier modelo sofisticado, especialmente cuando las decisiones tienen consecuencias directas sobre el bienestar de las personas.

Todo esto apunta a una idea sencilla, pero importante: el progreso de la inteligencia artificial no pasa solo por hacerla más potente, sino por hacerla útil en los contextos que realmente importan. No se trata de sustituir a quienes enseñan, cuidan o toman decisiones, sino de ofrecer herramientas que ayuden a actuar con mayor criterio. Porque la precisión sin contexto dice menos de lo que parece.

[+] Conoce más sobre la tesis de Jared Guerrero

Comparte con:
Valora este artículo