
'Hay escasamente una parte de la empresa que no esté afectada por la IA', dijo Vishal Sharma, vicepresidente de Inteligencia Artificial General de Amazon, el lunes en el Mobile World Congress en Barcelona. Desestimó la idea de que los modelos de código abierto pudieran reducir las necesidades de cálculo y desvió cuando se le preguntó si las empresas europeas cambiarían sus estrategias de IA generativa a raíz de las tensiones geopolíticas con EE. UU.
Sharma dijo en el escenario en la conferencia de startups que Amazon ahora está implementando IA a través de sus propios modelos fundamentales en Amazon Web Services - la división de computación en la nube de Amazon - los robots en sus almacenes y el producto de consumo Alexa, entre otras aplicaciones.
'Ahora tenemos algo así como tres cuartos de millón de robots, y están haciendo de todo, desde recoger cosas hasta correr por sí mismos dentro del almacén. El producto Alexa es probablemente el producto de IA para el hogar más ampliamente desplegado que existe... No hay ninguna parte de Amazon que no esté tocada por la IA generativa.'
En diciembre, AWS anunció una nueva suite de cuatro modelos generadores de texto, una familia de modelos de IA generativa multimodal que llama Nova.
Sharma dijo que estos modelos se prueban contra benchmarks públicos: 'Quedó bastante claro que hay una enorme diversidad de casos de uso. No hay una talla única para todos. Hay lugares donde necesitas generación de video... y otros lugares, como Alexa, donde le pides que haga cosas específicas, y la respuesta necesita ser muy, muy rápida y muy predecible. No puedes alucinar 'abre la puerta trasera'.'
Sin embargo, dijo que reducir las necesidades de cálculo con modelos de código abierto más pequeños es poco probable que suceda: 'A medida que comienzas a implementarlo en diferentes escenarios, simplemente necesitas más y más inteligencia', dijo.
Amazon también ha lanzado 'Bedrock', un servicio dentro de AWS dirigido a empresas y startups que desean mezclar y combinar diversos modelos fundamentales, incluido DeepSeek de China. Permite a los usuarios cambiar entre modelos sin problemas, dijo.
Amazon también está construyendo un enorme clúster de cálculo de IA en sus chips Trainium 2 en asociación con Anthropic, en los que ha invertido 8 mil millones de dólares. Mientras tanto, xAI de Elon Musk recientemente lanzó su último modelo de IA insignia, Grok 3, utilizando un enorme centro de datos en Memphis que contiene alrededor de 200,000 GPUs.
Al ser preguntado sobre este nivel de recursos informáticos, Sharma dijo: 'Mi opinión personal es que el cálculo será parte de la conversación durante mucho tiempo'.
No creía que Amazon estuviera bajo presión por la avalancha de modelos de código abierto que recientemente han surgido de China: 'No lo describiría así', dijo. Por el contrario, Amazon se siente cómodo implementando DeepSeek y otros modelos en AWS, sugirió. 'Somos una empresa que cree en la elección... Estamos abiertos a adoptar cualquier tendencia y tecnología que sea buena desde la perspectiva del cliente', dijo Sharma.
Cuando Open AI introdujo ChatGPT a finales de 2022, ¿pensaba que Amazon estaba dormida?
'No, creo que no estaría de acuerdo con esa línea de pensamiento', dijo. 'Amazon ha estado trabajando en IA durante unos 25 años. Si miras algo como Alexa, hay algo así como 20 modelos de IA diferentes que se están ejecutando en Alexa... Teníamos miles de millones de parámetros que ya existían para el lenguaje. Hemos estado mirando esto durante bastante tiempo.'
Sobre la controversia reciente que rodea a Trump y Zelenskyy, y la subsiguiente tensión en las relaciones de EE. UU. con muchas naciones europeas, ¿pensaba que las empresas europeas podrían buscar en otro lado recursos de GenAI en el futuro? Sharma admitió que este tema estaba 'fuera' de su 'zona de experiencia' y las consecuencias son 'muy difíciles de predecir...' Pero insinuó algo diplomáticamente que algunas empresas podrían ajustar su estrategia. 'Lo que diré es que es cierto que la innovación técnica responde a incentivos', dijo.
