Phi-3.5-MoE de Microsoft compite con Gemini 1.5 Flash y ahora está disponible en Azure AI Studio y GitHub

Phi-3.5-MoE de Microsoft compite con Gemini 1.5 Flash y ahora está disponible en Azure AI Studio y GitHub

El mes pasado, Microsoft presentó la vanguardista familia Phi-3.5 de modelos de IA livianos, que vienen con una serie de mejoras. El modelo más destacado es el Phi-3.5-MoE, el primer modelo de la serie Phi que incorpora la tecnología Mixture of Experts (MoE).

Microsoft ha anunciado que el modelo Phi-3.5-MoE está disponible en Azure AI Studio y GitHub a través de una API sin servidor. Esta característica permite a los desarrolladores integrar sin problemas el modelo Phi-3.5-MoE en sus flujos de trabajo y aplicaciones sin necesidad de administrar ninguna infraestructura subyacente.

Se puede acceder al modelo Phi-3.5-MoE, junto con otros modelos Phi-3.5, en varias regiones, incluidas East US 2, East US, North Central US, South Central US, West US 3, West US y Sweden Central. Como oferta sin servidor, los desarrolladores se benefician de una estructura de precios de pago por uso, que se establece en $0,00013 por cada 1000 tokens de entrada y $0,00052 por cada 1000 tokens de salida.

En varias pruebas de referencia de IA, el Phi-3.5-MoE ha demostrado un rendimiento superior al de casi todos los demás modelos abiertos de su categoría, como Llama-3.1 8B, Gemma-2-9B y Mistral-Nemo-12B, en particular utilizando menos parámetros activos. Microsoft afirma que su rendimiento rivaliza, o incluso supera ligeramente, al del Gemini-1.5-Flash de Google, uno de los modelos de código cerrado líderes en este ámbito.

Phi-35 MoE

El modelo MoE cuenta con un total de 42 mil millones de parámetros, de los cuales solo 6.6 mil millones están activados, con el apoyo de 16 expertos. El equipo de Microsoft Research diseñó este modelo desde cero para mejorar el rendimiento, aumentar las capacidades multilingües y reforzar los protocolos de seguridad. Además, en lugar de depender de las técnicas de formación convencionales, el equipo Microsoft Phi ha sido pionero en un nuevo método de formación conocido como GRIN (GRadient INformed) MoE. Este enfoque ha permitido mejorar significativamente la utilización de los parámetros y la especialización de los expertos, logrando resultados de calidad notablemente superiores en comparación con las modalidades de formación tradicionales.

Con sus excepcionales métricas de rendimiento y accesibilidad, Phi-3.5-MoE está diseñado para empoderar a los desarrolladores e impulsar la innovación dentro del ecosistema de IA. Su modelo sin servidor y su precio basado en el consumo están derribando aún más las barreras de entrada, lo que permite que más desarrolladores accedan a capacidades avanzadas de IA que nunca antes.

Fuente: Microsoft

Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *