DeepSeek R1- 0528 en OpenRouter admite la llamada a herramientas locales.
La última actualización ha generado un amplio interés en la comunidad de desarrolladores. Según AINavHub, la versión mejorada DeepSeek R1-0528 ahora admite la llamada a herramientas locales en OpenRouter, una mejora significativa que permite a los desarrolladores integrar herramientas locales sin problemas en sus flujos de trabajo de IA.

La llamada a herramientas locales mejora la eficiencia del flujo de trabajo
DeepSeek R1-0528 es un modelo de inferencia de código abierto, conocido por su rendimiento comparable a modelos propietarios como OpenAI o3 y Google Gemini2.5Pro. Esta actualización introduce el soporte para la llamada a herramientas locales a través de la plataforma OpenRouter, que es una plataforma unificada para acceder a múltiples modelos de IA. Esta función permite a los desarrolladores conectar el modelo con herramientas locales, como entornos de codificación, herramientas de análisis de datos o API personalizadas, simplificando la gestión de tareas complejas y convirtiendo a R1-0528 en una opción ideal para desarrolladores que buscan soluciones de IA de alto rendimiento y costo-efectivas.
La introducción de la llamada a herramientas locales satisface una necesidad clave en el ecosistema de IA: combinar ### capacidades avanzadas de inferencia con funciones prácticas y localizadas. Con la infraestructura de OpenRouter, los desarrolladores ahora pueden desplegar R1-0528 en una variedad de escenarios, desde prototipos rápidos hasta aplicaciones empresariales, sin tener que gestionar recursos computacionales pesados.

Profundas implicaciones para la comunidad de IA
La importancia de esta actualización radica en su democratización de las capacidades de IA. A diferencia de los modelos cerrados que suelen ser costosos y de acceso restringido, las características de código abierto de DeepSeek R1-0528, combinadas con el servicio API gratuito de OpenRouter, reducen la barrera de entrada para pequeñas organizaciones y desarrolladores individuales. Las discusiones recientes en plataformas sociales han mostrado el entusiasmo de los desarrolladores por este lanzamiento, con muchos elogiando el excelente rendimiento del modelo en inferencia profunda y la integración de herramientas locales.
Además, esta actualización refuerza aún más el rendimiento excepcional de R1-0528. Las pruebas de referencia muestran que su desempeño en tareas como AIME2025 (con una precisión que pasa del 70% al 87.5%) y LiveCodeBench (con un rendimiento de codificación que pasa del 63.5% al 73.3%) es sobresaliente, comparable a los líderes de la industria. La adición de la función de llamada a herramientas locales mejora aún más su utilidad, convirtiendo a R1-0528 en un fuerte competidor en la carrera de IA.
Modelo simplificado mejora la accesibilidad
Junto con la actualización del modelo principal R1-0528, DeepSeek también ha lanzado un modelo simplificado, DeepSeek-R1-0528-Qwen3-8B, basado en el modelo Qwen3-8B de Alibaba. Este modelo ligero tiene una demanda de recursos computacionales significativamente reducida, funcionando con solo una GPU de 40GB a 80GB de memoria (como la Nvidia H100). A pesar de su menor tamaño, supera a Google Gemini2.5Flash y OpenAI o3-mini en algunas pruebas de referencia, convirtiéndose en una opción ideal para entusiastas y desarrolladores con recursos de hardware limitados.
Este modelo simplificado también está disponible a través de OpenRouter, reflejando el compromiso de DeepSeek con la accesibilidad de la IA. A través de la capa API gratuita de OpenRouter, los desarrolladores pueden experimentar las funciones de R1-0528 sin carga financiera, fomentando la innovación a nivel global.
Descubre las últimas innovaciones en tecnología y mejora tu productividad con nuestra selección curada de herramientas de IA. Aprende más y explora herramientas de IA diseñadas para usuarios en nuestro Directorio de Herramientas de IA, donde puedes explorar características como búsqueda inteligente y asistentes de IA para encontrar la herramienta perfecta para ti.






