‘Nadie sabe qué hace a los humanos tan eficientes’: modelos de lenguaje pequeños basados en Homo Sapiens podrían ayudar a explicar cómo aprendemos y mejorar la eficiencia de la IA — para bien o para mal.

Empresas tecnológicas están cambiando su enfoque de construir los modelos de lenguaje más grandes (LLMs) a desarrollar modelos más pequeños (SLMs) que pueden igualar o incluso superarlos. Meta’s Llama 3 (400 mil millones de parámetros), OpenAI’s GPT-3.5 (175 mil millones de parámetros) y GPT-4 (aproximadamente 1.8 trillones de parámetros) son modelos famosamente grandes, mientras que … Leer más