Amazon está dedicando recursos significativos para entrenar un extenso modelo de lenguaje llamado “Olympus”, con la intención de competir con los mejores modelos de OpenAI y Alphabet, según fuentes anónimas. Con 2 billones de parámetros, Olympus podría ser uno de los modelos más grandes en entrenamiento, superando al modelo GPT-4 de OpenAI, que tiene un billón de parámetros. El equipo a cargo, liderado por Rohit Prasad, exdirector de Alexa, opera bajo la dirección del CEO Andy Jassy. Amazon ya ha entrenado modelos más pequeños y ha colaborado con startups de IA como Anthropic y AI21 Labs. La empresa busca hacer sus ofertas más atractivas en Amazon Web Services (AWS) al proporcionar modelos de alto rendimiento. Aunque no hay un cronograma específico, Amazon cree que tener modelos locales mejorará su posición en el mercado. El entrenamiento de modelos de lenguaje más grandes implica mayores costos debido a la potencia informática requerida. En abril, ejecutivos de Amazon anunciaron planes para aumentar la inversión en modelos de lenguaje y inteligencia artificial generativa.