Los grandes modelos de lenguaje de inteligencia artificial (LLM) no comprenden realmente los juegos de palabras, según un estudio académico realizado por investigadores de la Universidad de Cardiff (Reino Unido) y la Universidad Ca’ Foscari de Venecia.
El trabajo, liderados por el profesor José Camacho Collados, fue presentado a principios de noviembre de 2025 en la Conferencia sobre Métodos Empíricos en el Procesamiento del Lenguaje Natural. Los resultados evidencian las limitaciones de la inteligencia artificial en tareas que requieren interpretación del humor, empatía y matices culturales.
El estudio analizó la capacidad de los LLM para identificar y comprender juegos de palabras, un reto que va más allá de la simple detección de estructuras lingüísticas. El equipo diseñó experimentos en los que se presentaron a los modelos frases con juegos de palabras y versiones modificadas de esas mismas frases.
Por ejemplo, se utilizó la oración “Era comediante, pero mi vida se volvió un chiste” y, posteriormente, se reemplazó el remate por “caótica”. A pesar de la ausencia del doble sentido, los modelos continuaron identificando la frase como un juego de palabras.
Otro caso analizado fue: “Los cuentos de hadas largos tienden a ser largos”. Al sustituir términos clave por sinónimos o palabras aleatorias, los LLM persistieron en señalar la presencia de un juego de palabras, lo que sugiere que su análisis se basa en patrones memorizados y no en una comprensión genuina del humor.
Los resultados de estos experimentos revelaron que los LLM pueden detectar la estructura superficial de los juegos de palabras, pero no comprenden el chiste en sí. El profesor Camacho Collados explicó que la investigación demuestra la fragilidad de la comprensión del humor por parte de estos modelos.
Señaló que los LLM tienden a memorizar patrones aprendidos durante su entrenamiento, lo que les permite identificar juegos de palabras conocidos, pero no implica una verdadera comprensión.
El equipo logró engañar sistemáticamente a los modelos al modificar los juegos de palabras y eliminar el doble sentido, observando que los LLM seguían asociando esas frases con juegos de palabras previos e incluso inventaban justificaciones para sostener esa interpretación. Según los investigadores, la supuesta comprensión de los juegos de palabras por parte de la IA es, en realidad, una ilusión.
La investigación también midió la capacidad de los modelos para distinguir entre juegos de palabras y frases sin doble sentido cuando se enfrentaban a ejemplos desconocidos. En estos casos, la tasa de acierto de los LLM descendió hasta el 20%, lo que evidencia una comprensión superficial y limitada.
Estas conclusiones plantean advertencias sobre el uso de la inteligencia artificial en contextos que requieren sensibilidad cultural, empatía o interpretación de matices, como la generación de contenido humorístico o la interacción social. El equipo investigador subrayó la importancia de no confiar ciegamente en los LLM para tareas que dependen de la comprensión del humor o de aspectos culturales complejos.
El estudio, titulado “Juego de palabras no intencionado: LLMs y la ilusión de la comprensión del humor”, fue presentado en la Conferencia sobre Métodos Empíricos en el Procesamiento del Lenguaje Natural 2025, en Suzhou, donde se destacó la necesidad de seguir evaluando críticamente las capacidades y limitaciones de la inteligencia artificial en el procesamiento del lenguaje.
Como recordatorio, los autores del trabajo enfatizaron que la prudencia resulta fundamental al emplear grandes modelos de lenguaje en aplicaciones que exigen interpretar el humor, la empatía o los matices culturales, ya que su aparente comprensión puede resultar engañosa.
(Fuente: infobae.com).
"Crear, pensar y vivir con humor".
