Los retos de la arquitectura Transformer
En este post se comentan algunos de los retos de la arquitectura Transformer, el modelo de deep learning detrás de éxitos como ChatGPT
En este post se comentan algunos de los retos de la arquitectura Transformer, el modelo de deep learning detrás de éxitos como ChatGPT
En este post hablamos del concepto de modelos de lenguaje y cómo se aplican hoy en día en robots cognitivos.
Hablamos del anclaje (‘ grounding ‘) del lenguaje en la realidad física y sensorial y su relación con la corporeidad de los robots.
Un post que habla de agentes conversacionales, sus nombres alternativos y, sobre todo, motivos por los que nos interesa construir este tipo de soluciones.
En este post se analizan las diferencias entre los datos de texto e imagen de acra a su procesamiento mediante deep learning
Reseña de ‘Introduction to Natural Language Processing’ de Jacob Eisenstein, una gran aunque compleja introducción al procesamiento de lenguaje natural.
En este artículo comento cómo se produce un sesgo de género, en este caso en procesamiento de lenguaje natural, contemplandolo desde el algoritmo.
Un breve artículo en que se plantean cuatro problemas éticos ligados al Procesamiento de Lenguaje Natural (NLP) según identifica Hacob Eisenstein.
La nube, la inteligencia artificial, dos conceptos nacidos por separados pero que ahora convergen o se unen de forma imparable de la mano de los grandes.