DeepSeek, el último de una serie de modelos desarrollados con pocos chips y bajo coste, desafía el dominio de gigantes como OpenAI, Google y Meta.
El gran modelo lingüístico (LLM) del laboratorio chino de inteligencia artificial DeepSeek ha sorprendido a Silicon Valley al convertirse en uno de los mayores competidores de ChatGPT, de la empresa estadounidense OpenAI. Su irrupción ha sacudido a los mercados estadounidenses.
Los últimos modelos de DeepSeek, lanzados este mes, son extremadamente rápidos y baratos. El DeepSeek-R1, el último de los modelos desarrollados con menos chips, desafía el dominio de gigantes como OpenAI, Google y Meta.
He aquí DeepSeek en ocho preguntas:
1. ¿De dónde viene DeepSeek?
La empresa, con sede en Hangzhou (China), fue fundada en julio de 2023 por Liang Wenfeng, ingeniero informático y electrónico licenciado por la Universidad de Zhejiang. Formaba parte del programa de incubación de High-Flyer, un fondo que Liang fundó en 2015. Liang, como otros nombres destacados del sector, aspira a alcanzar el nivel de "inteligencia general artificial" que pueda alcanzar o superar a los humanos en diversas tareas.
Al operar de forma independiente, el modelo de financiación de DeepSeek le permite llevar a cabo ambiciosos proyectos de IA sin la presión de inversores externos y priorizar la investigación y el desarrollo a largo plazo. El equipo de DeepSeek está formado por jóvenes licenciados con talento de las mejores universidades chinas y fomenta la cultura de la innovación. El proceso de contratación de la empresa da prioridad a las aptitudes técnicas sobre la experiencia laboral. En definitiva, se considera que tiene una nueva perspectiva en el proceso de desarrollo de modelos de inteligencia artificial.
La trayectoria de DeepSeek comenzó en noviembre de 2023 con el lanzamiento de DeepSeek Coder, un modelo de código abierto diseñado para tareas de codificación. Le siguió DeepSeek LLM, cuyo objetivo era competir con otros grandes modelos lingüísticos. DeepSeek-V2, lanzado en mayo de 2024, ganó adeptos gracias a su gran rendimiento y bajo coste. También obligó a otros grandes gigantes tecnológicos chinos como ByteDance, Tencent, Baidu y Alibaba a bajar los precios de sus modelos de IA.
2. ¿Cuál es la capacidad de los modelos DeepSeek?
DeepSeek-V2 fue sustituido posteriormente por DeepSeek-Coder-V2, un modelo más avanzado con 236.000 millones de parámetros. Diseñado para peticiones de codificación complejas, el modelo tiene una ventana de contexto elevada de hasta 128.000 tokens. Una ventana de contexto de 128.000 tokens es la longitud máxima de texto de entrada que el modelo puede procesar simultáneamente.
Una ventana de contexto más amplia permite al modelo comprender, resumir o analizar textos más largos. Esto supone una gran ventaja, por ejemplo, cuando se trabaja con documentos largos, libros o diálogos complejos. Un token es una unidad de un texto. A menudo, esta unidad puede ser una palabra, una partícula (como "artificial" e "inteligencia") o incluso un carácter. Por ejemplo: "¡La inteligencia artificial es genial!" puede constar de cuatro tokens: Artificial", "inteligencia", "genial", "!".
Los últimos modelos de la empresa, DeepSeek-V3 y DeepSeek-R1, han consolidado aún más su posición. DeepSeek-V3, un modelo de 671.000 parámetros, requiere muchos menos recursos que sus homólogos, al tiempo que obtiene unos resultados impresionantes en diversas pruebas comparativas con otras marcas. El DeepSeek-R1, lanzado en enero de 2025, se centra en tareas complejas como el razonamiento, la codificación y las matemáticas. Con sus capacidades en este ámbito, desafía al o1, uno de los últimos modelos de ChatGPT.
Aunque DeepSeek ha logrado un éxito significativo en poco tiempo, 'Forbes' escribió que la empresa se centra principalmente en la investigación y no tiene planes detallados de comercialización en un futuro próximo.
3. ¿Es gratuito para el ?
Una de las principales razones por las que DeepSeek ha logrado atraer la atención es que es gratuito para los s finales. De hecho, se trata del primer sistema de inteligencia artificial avanzada de este tipo a disposición de los s de forma gratuita. Otros sistemas potentes como OpenAI o1 y Claude Sonnet requieren una suscripción de pago. Incluso algunas suscripciones imponen cuotas a los s.
Google Gemini también está disponible de forma gratuita, pero las versiones gratuitas se limitan a los modelos más antiguos. DeepSeek no tiene limitaciones por ahora.
4. ¿Cómo utilizarlo?
Los s pueden acceder a la interfaz de chat de DeepSeek desarrollada para el final en chat.deepseek. Basta con introducir comandos en la pantalla de chat y pulsar el botón 'search' para buscar en internet.
Existe la opción 'deep think' para obtener información más detallada sobre cualquier tema. Aunque esta opción proporciona respuestas más detalladas a las peticiones de los s, también puede buscar más sitios en el buscador. Sin embargo, a diferencia de ChatGPT, que sólo busca basándose en determinadas fuentes, esta función también puede revelar información falsa en algunos sitios pequeños. Por lo tanto, los s necesitan confirmar la información que obtienen en este chat bot.
Los s que han utilizado esta IA han comentado sus limitaciones a la hora de tratar ciertos temas políticos e históricos en China.
5. ¿Es seguro?
Otra pregunta importante sobre el uso de DeepSeek es si es seguro. DeepSeek, al igual que otros servicios, requiere datos del , que probablemente se almacenan en servidores en China.
Como con cualquier LLM, es importante que los s no den datos sensibles al chatbot. Como DeepSeek también es de código abierto, investigadores independientes pueden examinar el código del modelo e intentar determinar si es seguro. Se espera que en los próximos días se publique información más detallada sobre los problemas de seguridad.
6. ¿Qué significa código abierto?
Los modelos, incluido DeepSeek-R1, se han publicado en su mayor parte como código abierto. Esto significa que cualquiera puede acceder al código de la herramienta y utilizarlo para personalizar el LLM. Los datos de entrenamiento están protegidos.
OpenAI, por su parte, había liberado el modelo o1 cerrado y ya lo está vendiendo sólo a s, incluso a s, con paquetes de 20 a 200 dólares al mes.
7. ¿Cómo ha conseguido producir un modelo así a pesar de las restricciones de EE.UU.?
La empresa también ha establecido colaboraciones estratégicas para mejorar sus capacidades tecnológicas y su alcance en el mercado. Una de las colaboraciones notables fue con la empresa estadounidense de chips AMD. Según 'Forbes', DeepSeek utilizó las GPU (unidades de procesamiento gráfico) AMD Instinct y el software ROCM en fases clave del desarrollo del modelo, sobre todo para DeepSeek-V3.
MIT Technology Review informó de que Liang había adquirido importantes existencias de chips Nvidia A100, un tipo cuya exportación a China está actualmente prohibida, mucho antes de las sanciones impuestas por Estados Unidos a China. El medio de comunicación chino '36Kr' calcula que la empresa tiene más de 10.000 unidades en stock. Algunos dicen que esta cifra asciende a 50.000. Al darse cuenta de la importancia de estas existencias para el entrenamiento de la IA, Liang fundó DeepSeek y empezó a utilizarlas junto con chips de bajo consumo para mejorar sus modelos.
Pero lo importante aquí es que Liang ha encontrado la forma de construir modelos competentes con pocos recursos. Las restricciones estadounidenses a la exportación de chips obligaron a los desarrolladores de DeepSeek a crear algoritmos más inteligentes y eficientes energéticamente para compensar su falta de potencia de cálculo. Se cree que ChatGPT necesita 10.000 GPU de Nvidia para procesar los datos de entrenamiento. Los ingenieros de DeepSeek afirman haber conseguido resultados similares con sólo 2.000 GPU.
8. ¿Cuáles son las técnicas innovadoras de DeepSeek?
El éxito de DeepSeek puede atribuirse a varias innovaciones importantes.
Aprendizaje por refuerzo: a diferencia de los métodos tradicionales, que dependen en gran medida del ajuste fino supervisado, DeepSeek utiliza RL puro, según el tecnólogo Janakiram MSV. En el perfeccionamiento supervisado, el modelo suele entrenarse en un gran conjunto de datos antes del perfeccionamiento. El uso de la RL pura significa que un sistema de IA se entrena utilizando únicamente métodos de aprendizaje por refuerzo. Esto significa que el modelo aprende únicamente a través de mecanismos de recompensa y castigo, sin datos extraídos por humanos ni métodos de aprendizaje supervisado. Este enfoque es especialmente eficaz para mejorar las capacidades de razonamiento de DeepSeek-R1.
Arquitectura MoE: la arquitectura Mixture of Experts, o Mezcla de Expertos, es un sistema innovador de diferentes expertos en modelos de inteligencia artificial. Aquí, se seleccionan varios expertos como los más adecuados para la entrada del y sólo ellos trabajan. De este modo, se aumenta el rendimiento de los grandes modelos y se reduce el coste de procesamiento. Se puede pensar en ello como un equipo de expertos, cada uno especializado en un área diferente. Ante una tarea, sólo se recurre a los expertos pertinentes, lo que garantiza un uso eficiente de los recursos y la experiencia.
Atención latente multicabezal: este método permite a un modelo aprender las relaciones entre las representaciones latentes y las entradas utilizando diferentes cabezales de atención. Sirve para procesar la información de forma más flexible, potente y detallada. Se puede considerar como múltiples "cabezas de atención" que pueden centrarse en distintas partes de los datos de entrada, lo que permite al modelo comprender la información de forma más exhaustiva.
Destilación: DeepSeek utiliza técnicas de destilación para transferir los conocimientos y capacidades de modelos más grandes a otros más pequeños y eficientes. Esto es similar a cuando un profesor transfiere conocimientos a un alumno. Permite al alumno realizar tareas de similar competencia pero con menos experiencia o recursos. El proceso de destilación de DeepSeek permite que los modelos más pequeños hereden las capacidades avanzadas de razonamiento y procesamiento del lenguaje de sus homólogos más grandes, haciéndolos más versátiles y accesibles.
En resumen, al utilizar arquitecturas eficientes como RL y MoE, DeepSeek reduce significativamente los recursos computacionales necesarios para el entrenamiento y puede completarlo con menores costes. Por ejemplo, DeepSeek-V3 se entrenó por una fracción del coste de los modelos de Meta.
Alexandr Wang, consejero delegado de ScaleAI, que proporciona datos de entrenamiento a los modelos de IA de grandes empresas como OpenAI y Google,describió el producto de DeepSeek como "un modelo revolucionario" en un discurso pronunciado el jueves en el Foro Económico Mundial (FEM) de Davos (Suiza).