• Jue. May 9th, 2024

Microsoft Phi-2: Un modelo de lenguaje pequeño con grandes capacidades

El año  2024 está cada vez más cerca y con él siguen llegando los avances en inteligencia artificial. En esta ocasión fue Microsoft quien se aventuró a sacar una nueva IA generativa que ofrece grandes beneficios a los usuarios.

Microsoft Phi-2 es el nuevo modelo de lenguaje pequeño (SML) creado por Microsoft Research, el cual destacó por tener excelentes capacidades de razonamiento y compresión de lenguaje.

Los investigadores que desarrollaron este modelo de lenguaje realizaron diversas pruebas en las que encontraron que esta se desempeña mejor que la inteligencia artificial de Meta y Google en algunas tareas.

Gracias al diseño y características de esta nueva inteligencia artificial, se espera que sea la competencia de Gemini Nano, la IA generativa de bolsillo desarrollada por Google. Y es que este Phi-2 también se podrá manejar desde el móvil.

 

¿En qué consiste el nuevo Microsoft Phi-2?

El nuevo Phi-2 es parte de una familia de modelos basados en transformadores que tienen una cantidad menor de parámetros. Para tener una idea de la escala, Phi-2 cuenta con 2.700 millones de parámetros, mientras que GPT-4 tendría unos 1.700 billones.

A pesar de las limitantes, esta IA generativa de Microsoft iguala o supera a modelos hasta 25 veces más grandes. En las diferentes pruebas de matemáticas y programación, Phi-2 obtuvo un mejor rendimiento que Llama 2, la IA de Meta; además, también lo pusieron a prueba frente a Gemini Nano 2, logrando resolver problemas de física de un modo parecido a la inteligencia artificial de Google.

Para que esta nueva IA lograra todos estos resultados con una menor cantidad de parámetros, el Phi-2 fue entrenado con un conjunto que incluye textos sintéticos de PNL, subconjuntos de código obtenidos de Stack Overflow, competencias de programación y más.

Los investigadores de Microsoft comentaron que la calidad de los datos de entrenamiento juega un papel fundamental en el rendimiento del modelo; puesto que, a diferencia de GPT-4, esta IA pasa por una curación de datos web que se filtran de acuerdo a su valor educativo. Para ello, el grupo de investigadores utilizó un conjunto “con calidad de libros de texto”, una estrategia que se aplica desde la primera versión de Phi.

Microsoft Research indicó que el entrenamiento de Phi-2 tuvo una duración de 14 días y que se usaron alrededor de 96 tarjetas gráficas A100 de NVDIA. Además, explicó que, aunque no tuvo un refinamiento adicional, el SML brinda a los usuarios respuestas con menos toxicidad y sesgo, en comparación con Llama 2; además, ofrece mayor eficiencia en el consumo de recursos, por lo que es ideal para dispositivos con limitaciones de hardware.

El Phi-2 Aún no está listo para ser comercializado

Por el momento, Phi-2 solo estará disponible para proyectos de investigación, puesto que la licencia actual no permite utilizarlo en aplicaciones comerciales, como lo hace ChatGPT. Microsoft informó que el SML se ofrecerá como parte de Azure AI Studio para fomentar el desarrollo de modelos de lenguaje.

El lanzamiento del Phi-2 es considerado un avance significativo en el desarrollo de modelos de lenguaje pequeños, ya que sus capacidades superan a la de los modelos más grandes y ofrece beneficios adicionales, solo que esperar que a medida que avance el tiempo pueda estar disponible de forma comercial.

Para más información sobre tecnología e IA, haz clic en enlace.