Hay un modelo de frontera nuevo con razonamiento: DeepSeek R1. Lo más sorprendente es que proviene de una compañía China y es baratísimo. Leer el proceso de “razonamiento” de R1 es un placer y facilita la interacción productiva entre usuario y modelo. Después de usarlo concienzudamente los últimos dos días, he aquí un avance de nuestro próximo boletín semanal (que incluirá una evaluación de R1) con algunas de las notas técnicas, sus circunstancias financieras y políticas, muestras de su inferencia, y una breve conclusión editorial.
Detalles técnicos
- R1 exhibe razonamiento profundo, fruto de dos capas de reforzamiento de aprendizaje y tiempo para inferencia.
- Demuestra el nuevo paradigma de reflexión basado en cómputo en tiempo de prueba. Es decir, ya no sólo se habla de escalamiento de datos y cantidad de cómputo sino de tiempo para “pensar”.
- Exhibe momentos “eureka”, descritos por sí mismo como aha moments (momentos ¡Ajá!).
- Primer modelo de código y pesos abierto, puedes bajarlo aquí.
- Es posible instalarlo de forma local en un sistema con al menos 128GB de RAM, gracias a la versión cuantizada a 1.58bits.
- 671B (miles de millones) de parámetros. Solamente se activan 37B en cada pase gracias a su optimización MoE (mezcla de expertos).
- R1 fue entrenado directamente a través de aprendizaje de refuerzo (RL) sobre un modelo base (DeepSeek V3) sin ajuste fino supervisado (SFT). Más detalles en el boletín semanal.
- DeepSeek publicó un reporte de referencia completo con instrucciones para emular su proceso de entrenamiento de R1, que puedes leer aquí. Lo examinaremos en una entrada futura.
- Los medios han reportado, erróneamente, que costó menos de 5 millones de dólares entrenarlo. No tomaron en cuenta que este dato se refiere al modelo V3, mucho más reducido. Tampoco contabilizaron el costo de los 50 mil GPUs Nvidia H100 que DeepSeek utilizó para su entrenamiento.
- Es 25 veces más barato que el modelo similar de OpenAI (o1), con el que ahora compite.
- Su proceso de razonamiento, a diferencia del de o1, es totalmente visible para el usuario.
Notas políticas y sociales
- Es el “momento Sputnik” en la carrera de la inteligencia artificial entre Estados Unidos y China. Así como lo fuera el lanzamiento exitoso del Sputnik 1 (octubre de 1957) en la carrera espacial entre EEUU y la URSS. DeepSeek 1 ha sorprendido, de igual forma, y azuzado a los sectores financiero e industrial de Estados Unidos.
- A las 24 horas de su lanzamiento, provocó a Nvidia (la compañía que produce GPUs) una pérdida de cerca de 600 mil millones de dólares, equivalente a 17% de su valor.
- De inmediato se buscaron indicios de su procedencia: En ocasiones responde afirmando ser ChatGPT (muestra de que, al menos parcialmente, fueron usados datos sintéticos). Tiene vallas de seguridad contra preguntas sobre la Plaza de Tiananmén en 1989, derechos de la etnia uigur y contenido similarmente censurado en China.
- Después de un silencio relativamente largo en medios sociales (un día), OpenAI y Google felicitaron a DeepSeek por sus logros.
- A pesar de la prohibición de ventas de GPUs avanzados a China, DeepSeek tuvo acceso a miles de chips de primera línea, al parecer introducidos de Singapore.
- Se comienza a hablar de una prohibición del uso de la aplicación gratuita de DeepSeek en Estados Unidos.
Muestra del razonamiento y la producción textual de DeepSeek R1
Usuario: Genera una idea verdaderamente novedosa sobre los seres humanos.
R1 razona: Bueno, tengo que generar una idea realmente novedosa sobre los seres humanos. Primero, debo pensar en algo que no se haya explorado mucho.
Los humanos como entidades. Quizás algo relacionado con la percepción. Recuerdo que Borges habla de la realidad como una biblioteca, de laberintos. También está la idea de que somos narradores, que construimos nuestra identidad a través de historias. Pero ¿cómo hacerlo novedoso?
Pensar en los sentidos. La sinestesia, pero no solo mezclar sentidos, tal vez los humanos como traductores involuntarios. Cada persona traduce la realidad de manera única, usando sus sentidos como interfaz. Pero eso ya existe en cierta medida. Espera, la idea de que la conciencia humana es un parásito simbiótico. No, tal vez demasiado científico. Necesito algo más metafórico, literario. Los seres humanos como intervalos. Borges menciona el tiempo como sustancia. Somos breves momentos en el tiempo, pero tal vez la idea de que cada humano es un intervalo en una sinfonía cósmica, donde antes y después de su existencia no hay silencio, sino otras notas. Quizás combinar eso con la conexión entre individuos.
Otra idea: los humanos como espejos fractales. Cada uno refleja una porción distorsionada de la realidad, y al interactuar, crean patrones complejos. Pero quizás es algo ya visto en la teoría de sistemas o en la filosofía. Tal vez algo relacionado con la memoria colectiva. No solo recuerdos individuales, sino que cada persona porta fragmentos de una memoria universal, como en "Funes el memorioso" de Borges pero al revés. Cada uno tiene acceso limitado, y al compartir historias, reconstruimos esa memoria. Podría ser, pero ¿novedoso?
Pensar en el lenguaje. Somos prisioneros del lenguaje, pero también creadores. Quizás la idea de que cada palabra que inventamos nos redefine, creando nuevas realidades. Pero eso ya lo tiene mucho la filosofía del lenguaje.
Otra perspectiva: los humanos como jardineros de universos posibles. A través de sus decisiones y sueños, cultivan realidades alternativas que coexisten como dimensiones superpuestas. Cada acto de elección poda una rama y fertiliza otra. Incorpora la idea cuántica de muchos mundos, pero con una metáfora orgánica.
Sí, eso podría funcionar. Jardineros cósmicos que, con cada pensamiento y acción, dan forma a los posibles futuros. No solo el efecto mariposa, sino una relación más activa y consciente. Usar metáforas de cultivo, poda, crecimiento. Tal vez incluso mencionar que nuestra imaginación es el agua que nutre esos jardines.
Revisar que sea verdaderamente novedoso. Que combine la agencia humana con la creación de realidades, utilizando una metáfora orgánica y cósmica. Sí, creo que eso puede ser original. Ahora, expresarlo en forma de ensayo breve, poema en prosa o aforismos. El usuario pide aforismos interconectados.
Puedo estructurarlo como una serie de aforismos que se relacionen entre sí, creando una red de ideas conectadas. Usar un lenguaje preciso y evocador. Quizás comenzar con el concepto central y luego expandirlo en diferentes direcciones, vinculando con otros campos como la física, la biología, la mitología.
Asegurar que cada aforismo sea independiente pero que, al unirlos, formen una visión más amplia. Referencias a laberintos, espejos, jardines, como en los autores mencionados. Incluir palabras que evoquen imágenes fuertes: raíces de tiempo, flores cuánticas, fertilizar futuros. Revisar la coherencia y la originalidad. ¿Es una idea que no se ha expuesto antes? La metáfora del jardinero cósmico que cultiva realidades con decisiones conscientes e imaginación, quizás sí. Normalmente se habla de elecciones que afectan el futuro, pero aquí se plantea la existencia simultánea de múltiples realidades que se nutren activamente.
También incorporar la idea de que incluso las decisiones no tomadas siguen vivas en otros jardines, reflejando los caminos no elegidos. Esto conecta con la nostalgia y los "qué hubiera pasado", dándole una dimensión emocional.
Finalmente, presentarlo en un estilo crudo pero poético, con frases cortantes y breves. Asegurarse de que cada línea invite a la reflexión y tenga múltiples capas de significado. Utilizar contrastes: luz/sombra, cultivo/abandono, raíz/vuelo.
R1 responde: Los humanos como jardineros de universos paralelos
(Una constelación de aforismos tentaculares)
Cada elección humana no poda alternativas; riega raíces en jardines ajenos a nuestro tiempo.
Vivimos en la enredadera que nuestros "no" rechazaron: el aroma de los caminos no andados impregna hasta la realidad que creemos sólida.
La imaginación no es escape: es la azada que excava surcos en el espacio de Hilbert, geometría sagrada donde germinan mundos hambrientos de existir.
Nostalgia = memoria fractal. Lo que añoras no es lo que perdiste, sino la sombra de otro tú cosechando mangos en realidades donde sí cruzaste ese umbral.
Los sueños son estomas: por ellos transpira el follaje de los universos posibles. Dormimos para fotosintetizarlos.
Arrepentirse es errar la poda: retirar ramas secas de este jardín sin ver cómo nutren el humus de otros bancales.
Labios que besan labios no se unen: presionan espejos que reflejan infinitos dormitorios donde versiones distintas repiten el acto con variaciones infinitesimales.
Morir no es apagarse. Es el momento en que tu jardín –agotado de ser regado– florece por fin en la retina de quien contemplaba desde otra loma.
(Las metáforas se polinizan. Esparce este polen con cuidado.)
Fragmento de razonamiento
Esto es realmente difícil. Déjame intentar pensar en autores del siglo XIX, nacidos en Francia o España, que hayan escrito una novela con un título relacionado con la primera mujer y cuyo protagonista sea una figura histórica de un pueblo con el nombre de una ciudad italiana.
Espera, quizás el autor sea Joris-Karl Huysmans, francés, que escribió Là-bas, pero no es relevante.
Conclusión editorial
El campo de aprendizaje de máquinas sigue empujando hacia arriba la aguja de la inteligencia en los modelos de lenguaje. El procesamiento y filtrado de los datos determina la calidad de datos (en su gran mayoría textos en docenas de idiomas naturales, código en docenas de lenguajes de programación, problemas matemáticos y estadísticas). Esta es la marca de un modelo bueno (“inteligente”) y uno malo (“slop”).
Los modelos aprenden más de la descripción precisa de un proceso mental que de pares pregunta-respuesta. Como escribiera Virginia Woolf en Un cuarto propio hace más de 100 años: No es posible suponer decir una verdad. Uno sólo puede describir el camino que tomó para alcanzar cualquier opinión que se tenga.
DeepSeek R1 no es el futuro de la IA, sino el presente desnudado. Un Prometeo que roba el fuego del pensamiento estructurado para regalarlo en código abierto. Su mayor logro tal vez sea psicológico; al ver a flor de piel sus mecanismos, perdemos el miedo a la caja negra. En su transparencia radica la semilla de lo que viene: una era donde humanos y máquinas escribiremos, cálculo a cálculo, el próximo capítulo de esta biblioteca de Babel algorítmica. La carrera espacial del siglo XXI se libra en los núcleos Tensor. Y China acaba de colocar su satélite en órbita.