search
close-icon
Centros de Datos
PlatformDIGITAL®
Partners
Experiencia y recursos
Acerca de Digital Realty
Language
Login
banner
Artículo

Breve glosario de inteligencia artificial

Diccionario de términos sobre IA con algunos conceptos fundamentales para no perdernos en la marea de una tecnología revolucionaria.

La inteligencia artificial ya es parte activa en muchas de nuestras actividades. Aunque la utilizamos, muchas veces no sabemos realmente cómo trabaja. Más abajo encontrarás algunos conceptos que pueden ayudarte a entender su funcionamiento.

Ajuste de instrucciones 

El ajuste de instrucciones es un enfoque donde un modelo pre-entrenado se adapta para realizar tareas específicas proporcionando un conjunto de pautas o directivas que describen la operación deseada.

Ajuste fino

El proceso de adaptar un modelo pre-entrenado a una tarea específica entrenándolo en un conjunto de datos más pequeño. Por ejemplo, un modelo de clasificación de imágenes entrenado en todas las fotos de intersecciones puede ser perfeccionado para detectar cuando un coche se pasa un semáforo en rojo.

Alucinación 

La alucinación se refiere a una situación en la que un sistema de IA, especialmente en aquellos casos en los que se encarga del procesamiento del lenguaje natural, comienza a generar resultados que pueden ser irrelevantes, sin sentido o incorrectos basados en la entrada proporcionada. Frecuentemente, esto ocurre cuando el sistema de IA no está seguro del contexto, depende demasiado de sus datos de entrenamiento o carece de una comprensión adecuada del tema que se le presenta.

Anclaje 

El anclaje es el proceso de fijar sistemas de IA en experiencias, conocimientos o datos del mundo real. El objetivo es mejorar la comprensión del mundo por parte de la IA, para que pueda interpretar y responder efectivamente a las entradas, consultas y tareas de los usuarios. El anclaje ayuda a que los sistemas de IA sean más conscientes del contexto, permitiéndoles proporcionar respuestas o acciones más adecuadas, relacionables y relevantes.

Apilamiento 

El apilamiento es una técnica en IA que combina múltiples algoritmos para mejorar el rendimiento general. Al combinar las fortalezas de varios modelos de IA, el apilamiento compensa las debilidades de cada modelo y logra una salida más precisa y robusta en diversas aplicaciones, como el reconocimiento de imágenes y el procesamiento del lenguaje natural.

Aprendizaje automático (machine learning) 

Un subcampo de la IA que abarca el desarrollo de algoritmos y modelos estadísticos que permiten a las máquinas mejorar su rendimiento con la experiencia. Un ejemplo sería un algoritmo de aprendizaje automático que pudiera predecir la probabilidad de pérdida de los clientes basándose en su comportamiento pasado.

Aprendizaje colectivo

El aprendizaje colectivo es un enfoque de entrenamiento de IA que aprovecha habilidades y conocimientos diversos a través de múltiples modelos para lograr una inteligencia más poderosa y robusta.

Aprendizaje de disparo cero o entrenamiento cero 

El aprendizaje de entrenamiento cero es una técnica en la que un modelo de aprendizaje automático puede reconocer y clasificar nuevos conceptos sin ningún ejemplo etiquetado.

Aprendizaje no supervisado 

Un tipo de aprendizaje automático en el que un modelo se entrena con datos no etiquetados para encontrar patrones o características en los datos. Ejemplo: Un algoritmo de aprendizaje no supervisado que puede agrupar imágenes similares de dígitos escritos a mano basándose en sus características visuales.

Aprendizaje potenciado 

Un tipo de aprendizaje automático en el que un modelo aprende a tomar decisiones interactuando con su entorno y recibiendo retroalimentación a través de recompensas o penalizaciones. GPT utiliza aprendizaje potenciado a partir de la retroalimentación humana. Al ajustar GPT-3, los anotadores humanos proporcionaron ejemplos del comportamiento deseado del modelo y clasificaron las salidas del modelo

Aprendizaje profundo

Un subcampo del aprendizaje automático (machine learning) que utiliza redes neuronales con múltiples capas para aprender de los datos. Un ejemplo sería, en este caso, un modelo de aprendizaje profundo que pudiera reconocer objetos en una imagen, procesándola a través de múltiples capas de redes neuronales.

Automatización

La automatización se refiere al uso de tecnología para realizar distintas tareas con mínima intervención humana.

Capacidad de control

La capacidad de control se refiere a entender, regular y gestionar el proceso de toma de decisiones de un sistema de IA, asegurando su precisión, seguridad y comportamiento ético, y minimizando el potencial de consecuencias no deseadas.

Chatbot

Una interfaz fácil de usar que permite al usuario hacer preguntas y recibir respuestas. Dependiendo del sistema de back-end que alimente al chatbot, puede ser tan básico como respuestas prescritas hasta una IA completamente conversacional que automatiza la resolución de problemas.

ChatGPT

Una interfaz de chat construida sobre GPT-3.5. GPT-3.5 es un modelo de lenguaje grande desarrollado por OpenAI que está entrenado en una cantidad masiva de datos de texto de internet y optimizado para realizar una amplia gama de tareas de lenguaje natural. Ejemplo: GPT-3.5 ha sido perfeccionado para tareas como la traducción de idiomas, la síntesis de texto y la respuesta a preguntas.

Datos de validación 

Un subconjunto del conjunto de datos utilizado en el aprendizaje automático que es separado de los conjuntos de datos de entrenamiento y prueba. Se utiliza para ajustar los hiperparámetros (es decir, la arquitectura, no los pesos) de un modelo.

Datos no estructurados 

Los datos no estructurados son cualquier información que no está organizada en un modelo o estructura predefinidos, lo que hace difícil recopilar, procesar y analizar.

Encadenamiento de modelos 

El encadenamiento de modelos es una técnica en ciencia de datos donde varios modelos de aprendizaje automático están vinculados en secuencia para hacer predicciones o análisis.

Enriquecimiento de datos

El enriquecimiento de los datos es una técnica utilizada para aumentar artificialmente el tamaño y la diversidad de un conjunto de entrenamiento creando copias modificadas de los datos existentes. Involucra hacer cambios menores como voltear, redimensionar o ajustar el brillo de las imágenes, para mejorar el conjunto de datos y prevenir el sobreajuste de los modelos.

Espacio latente 

En el aprendizaje automático, este término se refiere a la representación comprimida de datos que un modelo (como una red neuronal) crea. Los puntos de datos similares están más cerca en el espacio latente.

Extensibilidad

La extensibilidad en IA se refiere a la capacidad de los sistemas de IA para expandir sus capacidades a nuevos dominios, tareas y conjuntos de datos sin necesidad de un reentrenamiento completo o cambios arquitectónicos importantes.

Extracción

La extracción es la habilidad de los modelos generativos para analizar grandes conjuntos de datos y extraer patrones, tendencias y piezas específicas de información relevantes.

GPT-3 

GPT-3 es la tercera versión de la serie de modelos GPT-n. Tiene 175 mil millones de parámetros (mandos ajustables) que se pueden ponderar para hacer predicciones. Chat-GPT utiliza GPT-3.5, que es otra iteración de este modelo.

GPT-4 

GPT-4 es la última adición de modelos a los esfuerzos de aprendizaje profundo de OpenAI y es un hito significativo en la escalabilidad del aprendizaje profundo. GPT-4 también es el primer modelo GPT que es un modelo multimodal grande, lo que significa que acepta entradas de imagen y texto y emite salidas de texto.

Generalización de débil a fuerte 

La generalización de débil a fuerte es un enfoque de entrenamiento de IA que utiliza modelos menos capaces para guiar y restringir a los más poderosos hacia una mejor generalización más allá de sus estrechos datos de entrenamiento.

Grandes modelos de lenguaje (LLM en inglés) 

Un tipo de modelo de aprendizaje profundo entrenado en un gran conjunto de datos para realizar tareas de comprensión y generación de lenguaje natural. Hay modelos muy conocidos, como BERT, PaLM, GPT-2, GPT-3, GPT-3.5 y el innovador GPT-4. Todos estos modelos varían en tamaño (número de parámetros que se pueden ajustar), en la amplitud de tareas (codificación, chat, científicas, etc.), y en el conocimiento en que han sido entrenados.

Inferencia 

El proceso de hacer predicciones con un modelo entrenado de aprendizaje automático, es decir, poner en práctica lo que la IA ha aprendido durante su entrenamiento.

Ingeniería de prompts 

Identificación de entradas (prompts) que resultan en salidas significativas. Hasta ahora, la ingeniería de prompts es esencial para los LLM. Los LLM son una fusión de capas de algoritmos que, en consecuencia, tienen una controlabilidad limitada con pocas oportunidades para intervenir y anular el comportamiento. Un caso de uso de ingeniería de prompts sería crear una colección de plantillas y asistentes para controlar una aplicación de redacción de textos comerciales.

Inteligencia artificial (IA)

La simulación de la inteligencia humana en máquinas que están programadas para pensar y aprender como los humanos. Ejemplo: un coche autónomo que puede navegar y tomar decisiones por sí mismo utilizando la tecnología de IA.

Inteligencia artificial general (IAG)

La Inteligencia Artificial General (IAG) se refiere a un sistema de IA que posee una amplia gama de habilidades cognitivas, muy parecidas a las humanas, lo que le permite aprender, razonar, adaptarse a nuevas situaciones y desarrollar soluciones creativas en diversas tareas y dominios, en lugar de estar limitado a tareas específicas como lo están los sistemas de IA estrecha.

IA conversacional

Una rama del desarrollo de la IA centrada en elaborar sistemas que puedan entender y generar un lenguaje similar al humano y llevar a cabo una conversación de ida y vuelta. Un ejemplo de ello sería un chatbot que pudiera entender y responder a consultas de clientes de manera similar a una conversación entre personas.

IA generativa 

Los modelos de IA generativa crean nuevos datos o contenidos descubriendo patrones en las entradas de datos o en los datos de entrenamiento. Por ejemplo, crear una historia corta original basada en el análisis de historias cortas publicadas existentes.

Memoria asociativa

La memoria asociativa se refiere a la capacidad de un sistema para almacenar, recuperar y procesar información relacionada basada en conexiones entre elementos, lo que le permite identificar y utilizar de manera eficiente los datos relevantes para la toma de decisiones.

Modelado de secuencias 

Un subcampo del procesamiento de lenguaje natural que se enfoca en modelar datos secuenciales como texto, habla o datos de series temporales. En este caso, un modelo de secuencia sería aquel que puede predecir la próxima palabra en una oración o generar texto coherente.

Modelo base

Los modelos base son una amplia categoría de modelos de IA que incluyen modelos de lenguaje grandes y otros tipos de modelos como los de visión por computadora y modelos de aprendizaje por refuerzo. Se les llama modelos “base” porque sirven como el pilar sobre el que construir aplicaciones, atendiendo a una amplia gama de dominios y casos de uso.

Modelo determinista

Un modelo determinista sigue un conjunto específico de reglas y condiciones para alcanzar un resultado definitivo, operando en una base de causa y efecto.

Modelo discriminativo

Los modelos discriminativos son algoritmos diseñados para modelar y aprender directamente el límite entre diferentes clases o categorías en un conjunto de datos.

OpenAI 

Es la empresa que desarrolló ChatGPT. OpenAI es, en líneas generales, una empresa de investigación que tiene como objetivo desarrollar y promover de manera responsable una IA amigable. Un ejemplo es su versión GPT-3 de OpenAI, uno de los modelos de lenguaje más grandes y potentes disponibles para tareas de procesamiento de lenguaje natural.

Optimización 

El proceso de ajustar los parámetros de un modelo para minimizar una función de pérdida que mide la diferencia entre las predicciones del modelo y los valores verdaderos. Sería el caso de querer optimizar los parámetros de una red neuronal utilizando un algoritmo de descenso de gradiente para minimizar el error entre las predicciones del modelo y los valores verdaderos.

Parámetros 

En el aprendizaje automático, los parámetros son las variables internas que el modelo utiliza para hacer predicciones. Se aprenden de los datos de entrenamiento durante el proceso de entrenamiento. Como ejemplo, en una red neuronal, los pesos y los sesgos son parámetros.

Plugin de IA

Los plugins de IA son componentes de software especializados que permiten a los sistemas de IA interactuar con aplicaciones y servicios externos.

Pre-entrenamiento 

La fase inicial de entrenamiento de un modelo de aprendizaje automático donde el modelo aprende características generales, patrones y representaciones de los datos sin conocimiento específico de la tarea a la que se aplicará más tarde. Este proceso de aprendizaje no supervisado o supervisado parcialmente permite que el modelo desarrolle una comprensión fundamental de la distribución subyacente de los datos y extraiga características significativas que pueden ser aprovechadas para el ajuste fino posterior en tareas específicas.

Prejuicio o sesgo 

Son las suposiciones hechas por un modelo de IA sobre los datos. Un “compromiso entre sesgo y varianza” es el equilibrio que debe lograrse entre las suposiciones que un modelo hace sobre los datos y la cantidad que las predicciones de un modelo cambian, dados diferentes datos de entrenamiento. El sesgo inductivo es el conjunto de suposiciones que un algoritmo de aprendizaje automático hace sobre la distribución subyacente de los datos.

Procesamiento de lenguaje natural

Un subcampo de la IA que implica programar computadoras para procesar volúmenes masivos de datos lingüísticos. Se centra en transformar un texto en formato libre en una estructura estandarizada.

Procesamiento de voz 

El procesamiento de voz en IA se refiere a la secuencia de conversión de voz a texto seguida de la síntesis de texto a voz.

Prompts recurrentes 

Los prompts recurrentes son una estrategia para guiar modelos de IA como GPT-4 de OpenAI para producir resultados de mayor calidad. Implica proporcionar al modelo una serie de prompts o preguntas que se basan en respuestas anteriores, refinando tanto el contexto como la comprensión de la IA para lograr el resultado deseado.

Razonamiento 

El razonamiento de la IA es el proceso por el cual los sistemas de inteligencia artificial resuelven problemas, piensan críticamente y crean nuevo conocimiento analizando y procesando la información disponible, lo que les permite tomar decisiones bien informadas en diversas tareas y dominios.

Razonamiento multi-salto 

Multi-salto es un término que se utiliza a menudo en el procesamiento del lenguaje natural, y más específicamente en aquellas tareas relacionadas con la comprensión de lectura de máquinas. Se refiere al proceso por el cual un modelo de IA recupera respuestas a preguntas conectando múltiples piezas de información presentes en un texto dado o a través de varias fuentes y sistemas, en lugar de extraer directamente la información de un solo pasaje.

Reconocimiento automático de voz

El reconocimiento automático de voz (ASR en inglés) es una tecnología que transcribe el lenguaje hablado a texto.

Red neuronal 

Un modelo de aprendizaje automático inspirado en la estructura y función del cerebro humano que está compuesto por capas de nodos interconectados o “neuronas”. Permiten reconocer patrones y resolver problemas, basados en formación automática o aprendizaje profundo, buscando modelar los mecanismos de análisis del cerebro humano.

Redes generativas adversarias

Las redes generativas adversarias o antagónicas son un ejemplo poderoso de red neuronal, capaz de generar información nueva nunca vista que se asemeja mucho a los datos de entrenamiento.

Retropropagación 

Es un algoritmo frecuentemente utilizado en el entrenamiento de redes neuronales artificiales. Ajusta los pesos de las conexiones entre neuronas para minimizar el error en la predicción de un modelo. Es efectivo para, por ejemplo, el reconocimiento de patrones o la clasificación de imágenes.

Singularidad 

En el contexto de la IA, la singularidad (también llamada singularidad tecnológica) se refiere a un punto hipotético futuro en el tiempo cuando el crecimiento tecnológico se vuelve incontrolable e irreversible, llevando a cambios imprevisibles en la civilización humana.

Sobreajuste 

Un problema que ocurre cuando un modelo es demasiado complejo, rindiendo bien en los datos de entrenamiento, pero mal en datos no vistos. Una muestra de sobreajuste sería el caso de un modelo que ha memorizado los datos de entrenamiento en lugar de aprender patrones generales, y tiene por tanto un rendimiento deficiente en datos nuevos.

Stable Difussion 

Es un sistema de inteligencia artificial de código abierto que utiliza aprendizaje profundo para generar imágenes a partir de indicaciones de texto natural.

Texto a voz 

Texto a voz (TTS en inglés) es una tecnología que convierte texto escrito en salida de voz hablada. Permite a los usuarios escuchar contenido escrito siendo leído en voz alta, típicamente utilizando voz sintetizada.

Tokenización 

El proceso de dividir texto en palabras individuales o subpalabras para introducirlas en un modelo de lenguaje. Ejemplo: tokenizar una oración “Yo soy ChatGPT” en las palabras: “Yo,” “soy,” “Chat,” “G,” y “PT.”

Transformador (transformer)

Representa un tipo de arquitectura de red neuronal diseñada para procesar datos secuenciales, como es el texto. La arquitectura transformadora aprende contexto y en consecuencia significado. Se utiliza en modelos como ChatGPT para tareas de procesamiento de lenguaje natural.

Validación cruzada

Es un método utilizado para evaluar los resultados de un análisis y garantizar la exactitud de las predicciones de los modelos de aprendizaje automático.

Tags