DeepSeek está trabajando en su lenguaje R2, hasta 512 PetaFLOPS de potencia de cálculo FP16

DeepSeek está trabajando en su lenguaje R2, hasta 512 PetaFLOPS de potencia de cálculo FP16 186q6l

por Juan Antonio Soto

Hace unos meses que tecnología de Huawei para ofrecer un gran rendimiento con pocos recursos. 1g5b5c

Se dice que este nuevo modelo DeepSeek R2 estará impulsado con aceleradoras rendimiento medio FP16. Un rendimiento que supera en más del 90% a los antiguos NVIDIA A100, junto con un reducido coste de entrenamiento de más del 97%.

Para hacer posible este lenguaje, además de la compañía responsable de desarrollar la IA, también se cuenta con otros socios que conforman la infraestructura que lo hace posible. Además, también se dice que pronto HUAWEI implementará su CloudMatrix 384, un clúster que hace frente a la solución más potente de NVIDIA y que es de fabricación nacional. Con todo este equipo detrás de DeepSeek R2, se espera un lanzamiento sin inconvenientes y del que muchos seguro están deseando probar.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!

Redactor del Artículo: Juan Antonio Soto

Juan Antonio Soto 3n403n

Soy Ingeniero Informático y mi especialidad es la automatización y la robótica. Mi pasión por el hardware comenzó a los 14 años cuando destripé mi primer ordenador: un 386 DX 40 con 4MB de RAM y 210MB de disco duro. Sigo dando rienda suelta a mi pasión en los artículos técnicos que redacto en Geeknetic. Dedico la mayor parte de mi tiempo libre a los videojuegos, contemporáneos y retro, en las más de 20 consolas que tengo, además del PC.

Comentarios y opiniones sobre: DeepSeek está trabajando en su lenguaje R2, hasta 512 PetaFLOPS de potencia de cálculo FP16 ¿Qué opinas? ¿Alguna pregunta?