La firma tecnológica con sede en China DeepSeek comunicó el lanzamiento de su modelo de inteligencia artificial, DeepSeek-V3-0324. Este desarrollo incorpora avances bien marcados en programación y razonamiento matemático, de acuerdo con información divulgada por la empresa. Con 685.000 millones de parámetros y basado en el sistema de razonamiento R1, se perfila como un recurso versátil tanto para asistentes conversacionales como para la creación de proyectos web.
El nuevo DeepSeek-V3-0324 se distribuye bajo la licencia MIT, la cual posibilita su uso, adaptación y difusión para distintos fines, incluidos los comerciales. Esta modalidad llama la atención de desarrolladores, puesto que la licencia MIT es ampliamente aceptada en GitHub. Según constata la propia organización, el modelo alcanzó 59,4 puntos en la American Invitational Mathematics Examination, superando con claridad a su versión anterior.
En el ámbito de la programación, el desempeño mejoró en 10 puntos en LiveCodeBench, logrando 49,2. Adicionalmente, la herramienta genera más de 800 líneas de código sin fallos y mantiene un ritmo superior a 20 tókens por segundo, lo que representa un paso significativo en el procesamiento del lenguaje natural. La arquitectura Mixture-of-Experts permite aumentar la eficacia sin generar un enorme impacto en el coste computacional.
Expertos y usuarias especializadas han elogiado su exactitud en el apartado matemático y su habilidad para componer código funcional de gran magnitud. Este potencial sitúa al modelo como un posible rival frente a otras empresas consolidadas del sector. DeepSeek ha publicado el modelo en Hugging Face, un repositorio mundial de uso abierto, y además en los canales oficiales de la propia compañía.
Este nuevo modelo forma parte de la infraestructura de «startups» como Hyperbolic en sus servicios en la nube. Según comentó Li Bangzhu, fundador del portal AIcpb.com, «las capacidades de codificación son mucho más fuertes, y la nueva versión podría allanar el camino para el lanzamiento del R2».
