Los modelos de lenguaje de gran tamaño (LLM), como se les llama, son herramientas entrenadas con una gran cantidad de datos para interactuar, responder preguntas y agilizar las tareas de los usuarios de manera similar a un humano.
Su capacidad de brindar respuestas casi instantáneas a las consultas planteadas ha impresionado a diversos expertos, como Bill Gates. El cofundador de Microsoft reconoció en su blog hace unos meses que lo que se estaba logrando con la IA le recordaba al impacto de la interfaz gráfica en su momento.
Los impresionantes resultados que los LLM están produciendo, similares a los que podría ofrecer un humano, no son producto de un entrenamiento que considera millones de datos disponibles en Internet
Los datos obtenidos se procesan en una red neuronal. Esta red es una especie de "motor" de la IA compuesto por nodos y capas que se ajustan constantemente para interpretar y comprender la información almacenada, teniendo en cuenta el contexto de la conversación y los resultados de pruebas anteriores. La mayoría de los LLM utilizan una estructura de red neuronal conocida como "transformador". Este concepto fue introducido por Google en 2017 al hablar sobre su desarrollo en IA. Ahora, otras marcas como OpenAI, con su modelo GPT (Generative Pre-Trained Transformer), también lo utilizan. Un transformador tiene la capacidad de leer grandes cantidades de texto y reconocer patrones en la estructura de las frases y la relación entre las palabras. Las conversaciones que se tienen con los chatbots son el resultado del procesamiento de datos mediante transformadores.
A pesar de tener cuidado de no repetir palabras en ocasiones los textos generados por estas inteligencias carecen de sentido. Por esta razón las empresas suelen contratar supervisores que corrigen a los LLM para que comprendan sus errores y aprendan a evitarlos, a este proceso se le conoce como Aprendizaje por Refuerzo a través de Retroalimentación Humana (RLHF).