Más allá del token: por qué los LLM necesitan lingüistas e informáticos para hablar español

Ponentes: Marina Mayor Rocher (Universidad Autónoma de Madrid) y Gonzalo Martínez (Universidad Politécnica de Madrid).

Lugar: Seminario Mirian Andrés (Edificio CCT).

Hora: viernes 20 de marzo de 2026, 11:00.

Resumen:  Este seminario propone un diálogo metodológico entre lingüística e informática para abordar qué significa evaluar un Large Language Model (LLM) como “hablante” de español. Más allá de métricas generales de rendimiento, se plantea una colaboración en la que cada disciplina aporta sus herramientas analíticas, integradas en diseños experimentales formalizados, implementables computacionalmente y reproducibles. El objetivo no es solo determinar si los modelos generan secuencias plausibles, sino analizar si en su producción emergen regularidades comparables a las de la gramática de los hablantes. En primer lugar, se abordará la construcción de pruebas de competencia lingüística, como TELEIA, un test inspirado en exámenes de español para extranjeros que permite evaluar el conocimiento gramatical y la comprensión lectora de los modelos. En segundo lugar, se discutirá la posibilidad de evaluar la variación dialectal mediante experimentos sobre reconocimiento de variedades del español, analizando diferencias morfosintácticas y léxicas y su relación con el Sesgo Lingüístico Digital. Finalmente, se mostrará cómo diseñar tareas controladas sobre fenómenos gramaticales en proceso de cambio, como las formas de futuro o el Marcado Diferencial de Objeto, para determinar hasta qué punto los modelos reproducen los patrones de variación documentados en la gramática del español y si su comportamiento converge con el de los hablantes ante los mismos estímulos experimentales.

Generative AI in teaching: ¿problem or solution? The case of SQL programming

Ponente: Óscar Díaz (Catedrático de Lenguajes y Sistemas Informáticos de la Universidad del País Vasco).

Lugar: Seminario Mirian Andrés (Edificio CCT).

Hora: viernes 6 de marzo de 2026, 11:00.

Resumen: Engineering education has always aimed to achieve two main goals: introducing students to essential foundational knowledge (like mathematics, natural sciences, and engineering sciences) and preparing them to competently engage in professional practice. Today, however, a significant change makes reaching these goals more challenging—artificial intelligence is transforming engineering practice in key areas such as conceptual design and optimization, simulation and analysis, requirements gathering, documentation and compliance, testing and diagnostics, project management, and risk assessment. 

As a result, teachers are stuck with a tough trade-off: if I lean into AI, am I watering down learning, or if I push back on AI, am I making my course feel outdated? A lot of the worry comes down to this idea that people only really learn wrestling with a problem—and if AI does the heavy lifting, do students actually understand what’s going on? Like, if someone can’t write a SQL query without help, do they really know SQL, or are they just getting used to leaning on a tool?

But there’s a real flip side. Jobs are starting to assume people can work with AI, and if I teach only the old, pre-AI way of doing things, am I setting students up for workflows they won’t use anymore? If the profession has moved forward, it feels wrong for education to stay stuck -students need to know how to use AI well and how to double-check it, not pretend it doesn’t exist.