Microsoft trae un modelo DeepSeek a su nube

Spread the love

Microsoft, en colaboración con OpenAI, sugiere que DeepSeek podría haber robado su propiedad intelectual y violado sus términos de servicio. A pesar de esto, Microsoft quiere los nuevos modelos de DeepSeek en su plataforma en la nube.

El miércoles, Microsoft anunció que R1, el modelo de razonamiento de DeepSeek, está disponible en el servicio Azure AI Foundry, la plataforma de Microsoft que reúne varios servicios de inteligencia artificial para empresas bajo un mismo banner. En una publicación en el blog, Microsoft mencionó que la versión de R1 en Azure AI Foundry ha pasado por «rigurosas pruebas y evaluaciones de seguridad», incluyendo «evaluaciones automáticas del comportamiento del modelo y extensas revisiones de seguridad para mitigar posibles riesgos».

En un futuro cercano, los clientes podrán utilizar versiones «destiladas» de R1 para ejecutarse localmente en las PC Copilot+, la marca de hardware de Windows de Microsoft que cumple con ciertos requisitos de preparación para la inteligencia artificial.

Imagem destacada

«A medida que continuamos expandiendo el catálogo de modelos en Azure AI Foundry, estamos emocionados de ver cómo los desarrolladores y empresas utilizan R1 para abordar desafíos del mundo real y ofrecer experiencias transformadoras», continuó Microsoft en la publicación.

La adición de R1 a los servicios en la nube de Microsoft es curiosa, considerando que Microsoft inició una investigación sobre el posible abuso de los servicios de DeepSeek. Según investigadores de seguridad que trabajan para Microsoft, DeepSeek podría haber extraído una gran cantidad de información utilizando la API de OpenAI en el otoño de 2024. Microsoft, que también es el mayor accionista de OpenAI, notificó a OpenAI de la actividad sospechosa, según Bloomberg.

Pero R1 es el tema de conversación y Microsoft podría haber sido persuadido para incorporarlo a su plataforma en la nube mientras aún tiene atractivo. No está claro si Microsoft hizo modificaciones al modelo para mejorar su precisión, y combatir la censura. Según una prueba realizada por la organización de confiabilidad de la información NewsGuard, R1 proporciona respuestas inexactas o no responde el 83% de las veces cuando se le pregunta sobre temas relacionados con las noticias. Una prueba separada encontró que R1 se niega a responder el 85% de las solicitudes relacionadas con China, posiblemente como consecuencia de la censura gubernamental a la que están sujetos los modelos de inteligencia artificial desarrollados en el país.

Hugging Face facilita la ejecución de modelos de IA en nubes de terceros para desarrolladores

¡AngelSense expuso datos de ubicación e información personal de usuarios rastreados!