Glosario de Términos

Escrito por Jon • 02 de mayo de 2025

Glosario de Términos de IA y LLMs
A
Abstracción (Abstraction)
Proceso de simplificar conceptos complejos eliminando detalles innecesarios para facilitar el procesamiento o comprensión.
Alucinación (Hallucination)
Cuando un modelo genera contenido que parece plausible pero es factualmente incorrecto o sin fundamento en los datos proporcionados.
Aprendizaje Automático
Subcampo de la inteligencia artificial que permite a las computadoras aprender de los datos sin ser programadas explícitamente.
Aprendizaje No Supervisado
Tipo de aprendizaje automático donde el algoritmo identifica patrones en datos no etiquetados.
Aprendizaje Por Refuerzo
Método de entrenamiento donde un agente aprende a tomar decisiones recibiendo recompensas o penalizaciones según sus acciones.
Aprendizaje Supervisado
Tipo de aprendizaje automático donde el algoritmo se entrena con datos etiquetados para hacer predicciones.
Arquitectura Transformer
Diseño de red neuronal que utiliza mecanismos de atención para procesar datos secuenciales, fundamental para los LLMs modernos.
Atención (Mecanismo de)
Componente clave en modelos de lenguaje que permite enfocarse en diferentes partes de los datos de entrada para generar salidas más precisas.
B
Bias (Sesgo)
Tendencia sistemática de un modelo a favorecer ciertos resultados debido a desbalances en los datos de entrenamiento.
Base de Conocimiento
Colección estructurada de información utilizada por sistemas de IA para responder consultas o razonar.
C
Clasificación
Tarea de asignar una categoría o etiqueta a los datos de entrada.
Codificador-Decodificador
Arquitectura de red neuronal donde una parte (codificador) procesa la entrada y otra (decodificador) genera la salida.
Comprensión del Lenguaje Natural (NLU)
Capacidad de un sistema para entender e interpretar el lenguaje humano.
Corpus
Conjunto grande y estructurado de textos utilizados para entrenar modelos de lenguaje.
Context Window
Número máximo de tokens que un modelo puede procesar en una sola solicitud.
D
Deep Learning (Aprendizaje Profundo)
Subcampo del aprendizaje automático que utiliza redes neuronales con múltiples capas para modelar abstracciones complejas.
Destilación de Modelos
Proceso de transferir conocimiento de un modelo grande (profesor) a uno más pequeño (estudiante) para mejorar la eficiencia.
Distorsión Distribucional
Cambios en la distribución estadística de los datos que pueden afectar el rendimiento del modelo.
E
Embeddings (Incrustaciones)
Representaciones vectoriales de palabras, frases o conceptos en un espacio multidimensional que capturan relaciones semánticas.
Entrenamiento
Proceso mediante el cual un modelo aprende patrones a partir de datos para realizar tareas específicas.
Evaluación de Modelos
Proceso de medir el rendimiento de un modelo contra métricas predefinidas.
F
Fine-tuning (Ajuste Fino)
Proceso de adaptar un modelo pre-entrenado a una tarea específica mediante entrenamiento adicional con datos especializados.
Función de Pérdida
Método para cuantificar la diferencia entre las predicciones del modelo y los valores reales durante el entrenamiento.
G
Generación de Lenguaje Natural (NLG)
Capacidad de un sistema para producir texto similar al humano.
Gradient Descent (Descenso de Gradiente)
Algoritmo de optimización utilizado para minimizar la función de pérdida durante el entrenamiento.
GPT (Generative Pre-trained Transformer)
Familia de modelos de lenguaje basados en la arquitectura Transformer, entrenados para generar texto.
H
Hiperparámetros
Variables configurables que determinan la estructura del modelo y cómo se entrena.
I
Inferencia
Proceso de utilizar un modelo entrenado para hacer predicciones o generar contenido.
Inteligencia Artificial (IA)
Campo de la informática dedicado a crear sistemas capaces de realizar tareas que normalmente requieren inteligencia humana.
Inteligencia Artificial Generativa
Subcampo de la IA centrado en crear contenido nuevo (texto, imágenes, audio, etc.).
L
Latencia
Tiempo de retraso entre el envío de una solicitud a un modelo y la recepción de una respuesta.
LLM (Large Language Model)
Modelo de lenguaje grande; un sistema de IA entrenado con enormes cantidades de datos textuales.
Long Short-Term Memory (LSTM)
Tipo de arquitectura de red neuronal recurrente diseñada para modelar dependencias temporales a largo plazo.
M
Multimodalidad
Capacidad de un modelo para procesar y generar diferentes tipos de datos (texto, imágenes, audio, etc.).
N
Neuronas Artificiales
Unidades computacionales básicas de una red neuronal, inspiradas en neuronas biológicas.
NLP (Procesamiento de Lenguaje Natural)
Campo de la IA centrado en la interacción entre computadoras y lenguaje humano.
O
One-shot Learning
Capacidad de aprender a partir de un solo ejemplo, en contraste con el aprendizaje tradicional que requiere muchos ejemplos.
Overfitting (Sobreajuste)
Cuando un modelo aprende patrones específicos de los datos de entrenamiento que no generalizan bien a nuevos datos.
P
Parameter (Parámetro)
Valor interno del modelo que se ajusta durante el entrenamiento para mejorar el rendimiento.
Perplexity (Perplejidad)
Medida de la calidad de un modelo de lenguaje, indicando cuán bien predice una muestra de texto.
Prompt Engineering
Práctica de diseñar instrucciones efectivas para obtener los resultados deseados de los modelos de IA.
Pre-entrenamiento
Fase inicial de entrenamiento de un modelo con grandes cantidades de datos generales antes del ajuste fino.
Q
Q-Learning
Algoritmo de aprendizaje por refuerzo que aprende el valor de una acción en un estado particular.
R
RAG (Retrieval-Augmented Generation)
Generación Aumentada por Recuperación; combina la recuperación de información con la generación de texto.
Redes Neuronales
Sistemas computacionales inspirados en el cerebro humano, compuestos por neuronas artificiales interconectadas.
Regularización
Técnicas utilizadas para prevenir el sobreajuste durante el entrenamiento.
S
Sampling (Muestreo)
Método para generar texto seleccionando tokens basados en sus probabilidades predichas por el modelo.
Semantic Search (Búsqueda Semántica)
Técnica de búsqueda que considera el significado contextual de los términos en lugar de solo buscar coincidencias exactas.
SOTA (State-of-the-Art)
Estado del Arte; representa la etapa más avanzada en un campo en un momento dado.
Síntesis de Voz
Tecnología que convierte texto en habla generada artificialmente.
T
Temperature (Temperatura)
Hiperparámetro que controla la aleatoriedad de las salidas generadas por un modelo.
Tokenización
Proceso de dividir texto en unidades más pequeñas (tokens) que el modelo puede procesar.
Token
Unidad básica de texto que procesan los modelos (aproximadamente 0.75 palabras en inglés).
Top-k Sampling
Estrategia de generación de texto que limita las opciones a las k palabras más probables.
Top-p Sampling (Nucleus Sampling)
Estrategia de generación de texto que selecciona de un conjunto de palabras cuyas probabilidades acumulativas alcanzan un umbral p.
Transfer Learning (Aprendizaje por Transferencia)
Técnica donde un modelo entrenado para una tarea se reutiliza como punto de partida para otra tarea.
V
Vectorización
Proceso de convertir datos en vectores numéricos que los modelos pueden procesar.
Visión por Computadora
Campo de la IA centrado en permitir que las máquinas interpreten y procesen información visual.
Z
Zero-shot Learning
Capacidad de un modelo para realizar tareas sin ejemplos específicos de entrenamiento para esa tarea.