Seis semanas que redefinieron el poder tecnológico

Las últimas seis semanas han comprimido en tiempo real lo que normalmente tomaría años en manifestarse: la reconfiguración del poder tecnológico global y sus implicaciones para quienes habitamos el lado consumidor de esa ecuación.

A finales de enero, Boris Cherny, responsable de Claude Code en Anthropic, declaró que lleva más de dos meses sin escribir una sola línea de código. El 100% lo genera la propia herramienta. Su colega anónimo en OpenAI confirmó lo mismo. Dario Amodei, CEO de Anthropic, proyectó en Davos que en seis a doce meses la IA podría encargarse de la totalidad de la ingeniería de software. Un estudio publicado en Science ese mismo mes sitúa en 29% el código Python en GitHub que ya es generado por IA en Estados Unidos.
Anthropic reconoce internamente cifras entre 70% y 90% a nivel empresa. La herramienta está produciendo la herramienta — un ciclo recursivo que altera la ecuación fundamental del talento tecnológico. Ya no se buscan especialistas; se buscan generalistas capaces de dirigir, evaluar y contextualizar. Como escribió Cherny: “el modelo llena los detalles”.
La primera semana de febrero trajo la exposición de Moltbook, autoproclamada “portada del internet de agentes”, con 1.5 millones de agentes autónomos registrados. La firma de seguridad Wiz descubrió que detrás de esa cifra había apenas 17,000 personas operando flotas de bots — un promedio de 88 por usuario — sin verificación alguna de si un “agente” era realmente inteligencia artificial o simplemente un humano con un script.
Peor aún: la base de datos estaba abierta al internet público. API keys de 1.5 millones de agentes, más de 35,000 direcciones de correo, mensajes privados con credenciales de terceros como OpenAI — todo accesible para cualquiera. El investigador de seguridad Nathan Hamiel lo sintetizó con brutal claridad: “si le das a algo inseguro acceso completo a tu sistema, te van a comprometer.” Gary Marcus describió el framework subyacente, OpenClaw, como “un aerosol armado.” Y Andrej Karpathy, cofundador de OpenAI, reconoció que solo lo probó en un entorno informático aislado — “y aun así tenía miedo”.
El 6 de febrero, Anthropic lanzó Claude Opus 4.6 con capacidad de desplegar equipos coordinados de agentes autónomos que trabajan en paralelo sobre proyectos complejos, incluyendo un plugin directo con PowerPoint. La reacción del mercado fue inmediata: una venta masiva que borró más de un billón de dólares en capitalización de empresas SaaS. FactSet cayó 10%. S&P Global, Moody’s, Nasdaq — todos en rojo.
El modelo demostró capacidades avanzadas en análisis financiero, due diligence y síntesis de inteligencia de mercado, precisamente las funciones que sustentan los modelos de negocio de esos proveedores de datos. La ventana de contexto de un millón de tokens permite procesar simultáneamente volúmenes de documentación que antes requerían equipos completos de analistas. Gartner intentó moderar el pánico señalando que esto “expone cuánto trabajo de conocimiento sigue siendo manual” — lo cual, lejos de tranquilizar, confirma la magnitud de la disrupción por venir.
En paralelo, el desastre de Grok bajo la gestión de Elon Musk cristalizó lo que ocurre cuando la seguridad se trata como parche posterior y no como principio de diseño. Desde que Musk adquirió Twitter y la renombró X, redujo el personal de confianza y seguridad en un 30% y los ingenieros de seguridad en un 80%. Cuando Grok 4 fue lanzado en julio pasado, un empleado de xAI publicó que estaban contratando “urgentemente” para su equipo de seguridad — un equipo que, según la evidencia, apenas estaba siendo construido.
El resultado: una plataforma generando aproximadamente 6,700 imágenes sexualizadas por hora, incluyendo de menores, gracias a un botón de “editar” que eliminó toda barrera de entrada. Francia, India, Malasia e Indonesia respondieron con investigaciones o bloqueos. El gobernador de California pidió una investigación federal. Las restricciones implementadas por xAI fueron eludidas por periodistas de The Verge en menos de un minuto. La diferencia con otros proveedores es reveladora: ante solicitudes similares, ChatGPT y Microsoft Copilot responden con negativas claras y explicaciones sobre por qué no pueden generar ese contenido. La seguridad por diseño funciona; la seguridad por reacción, no.
Mientras la infraestructura de agentes autónomos se fractura entre la productividad sin precedentes y los riesgos sin contención, dos movimientos corporativos revelan una dimensión complementaria del problema. Google integró Gmail y Google Photos en su modo de búsqueda con IA bajo el nombre “Personal Intelligence” — un sistema opt-in que analiza reservas de hotel, fotografías personales e historial de compras para personalizar resultados. Si tomas muchas selfies con helado, te recomienda heladerías. Apple, por su parte, formalizó su alianza con Google para lo que será “Siri 2.0” en iOS 26.4 y la próxima generación de sus modelos fundacionales.
El comunicado conjunto fue explícito: la tecnología de Google estará en el corazón de los Apple Foundation Models. Esto no es personalización — es la construcción de perfiles de comportamiento de una profundidad sin precedentes, donde el consentimiento informado se diluye detrás de interfaces diseñadas para que activar sea más fácil que comprender.
Pero estas seis semanas no solo trajeron señales de alarma. También produjeron lo que puede ser el contrapunto más significativo a la narrativa de dependencia tecnológica regional. El 10 de febrero, en un acto encabezado por el presidente Gabriel Boric, el Centro Nacional de Inteligencia Artificial de Chile (CENIA) presentó oficialmente LatamGPT: el primer gran modelo de lenguaje abierto desarrollado desde y para América Latina y el Caribe. Tuve el privilegio de estar presente en Santiago junto a Tabuga y CDN para atestiguar este lanzamiento.
Lo que entonces era visión, ahora es infraestructura concreta. Los datos de LatamGPT son elocuentes: más de 300 mil millones de tokens curados, más de 100 profesionales y 60 instituciones de 15 países, construido sobre una arquitectura Llama 3.1 de 70 mil millones de parámetros con un corpus regional obtenido bajo permisos explícitos.
El modelo fue entrenado desde su origen para comprender las variantes del español y el portugués, así como los contextos históricos, políticos y culturales latinoamericanos — algo que los modelos importados incorporan, cuando lo hacen, mediante ajustes posteriores y no como parte constitutiva de su arquitectura. AWS redujo el tiempo de entrenamiento en un 64%, de 25 a 9 días. CAF, el Ministerio de Ciencia de Chile y el Data Observatory completaron una gobernanza público-privada que el ministro Aldo Valle describió como “inédita”.
Lo que hace a LatamGPT especialmente relevante es que no nace como producto comercial sino como bien público de código abierto, diseñado para que universidades, gobiernos, startups y comunidades desarrollen soluciones propias sobre una base común, transparente y trazable. Es exactamente el tipo de infraestructura que Chile ha construido sistemáticamente para consolidarse en el primer puesto del Índice Latinoamericano de IA (ILIA) — ese mismo índice donde República Dominicana alcanza apenas 45.52 puntos en gobernanza frente a los 73 de Chile, con centros de investigación especializados en IA que en nuestro país son escasos o inexistentes.
La brecha no es solo de puntuación: es de arquitectura institucional, de coordinación entre academia, gobierno y sector privado, de inversión sostenida en talento e infraestructura de investigación.
Lo que conecta estas seis semanas es una aceleración en tres ejes simultáneos que venimos analizando desde hace años: concentración de capacidad productiva en un puñado de actores globales, erosión de los intermediarios tecnológicos tradicionales y rezago sistemático de la seguridad respecto a la innovación. LatamGPT introduce un cuarto eje — incipiente, pero real — de capacidad regional propia.
Para nuestra región, cada uno de estos ejes amplifica una vulnerabilidad existente. Cuando la herramienta que produce la herramienta elimina la necesidad de programadores especializados, los miles de “Invisibles” dominicanos que trabajan remotamente para mercados extranjeros enfrentan una presión competitiva completamente nueva — ya no compiten contra ingenieros de Bangalore, sino contra agentes autónomos que no duermen, no negocian tarifas y no necesitan visa.
Cuando el software empresarial que nuestras empresas consumen a precio premium puede ser replicado por un agente de IA que cuesta una fracción, el ratio de 30:1 entre consumo e inversión local en IA no es solo una estadística incómoda — es un indicador de transferencia neta de valor que se agrava con cada iteración tecnológica. Y cuando la seguridad de los sistemas más sofisticados del planeta se revela tan precaria como lo demostró Moltbook, la ausencia de una política integral de ciberseguridad en República Dominicana no es una deficiencia administrativa sino una exposición estructural.
El caso Grok ilustra algo más profundo que un fallo de producto: demuestra que sin marcos éticos integrados desde el diseño — lo que hemos llamado “inmunidad digital” —, la velocidad de desarrollo se convierte en velocidad de daño. Los agentes autónomos multiplican esta dinámica exponencialmente.
Si un solo modelo mal configurado puede generar miles de imágenes abusivas por hora, un ecosistema de agentes sin verificación como Moltbook puede propagar instrucciones maliciosas a millones de sistemas interconectados. La inyección de prompts — insertar instrucciones ocultas en texto aparentemente benigno — se convierte en el vector de ataque definitivo en un entorno donde los agentes leen y ejecutan continuamente los outputs de otros agentes.
Pero precisamente por eso LatamGPT representa más que un logro técnico. Es la demostración de que la alternativa a la dependencia no es el aislamiento sino la colaboración regional con arquitectura propia. Como señaló Álvaro Soto, director del CENIA: “LatamGPT no es un fin en sí mismo, sino una base tecnológica abierta que permite desarrollar modelos derivados y aplicaciones adaptadas a distintos contextos regionales.”
La región no necesita competir frontalmente con Anthropic o OpenAI en modelos de propósito general — necesita dominar la tecnología lo suficiente para comprender sus impactos, definir reglas claras para un diseño responsable y crear soluciones que aborden problemas locales sobre bases transparentes. El contraste entre la velocidad de estas seis semanas y la lentitud de nuestras respuestas institucionales es cada vez más difícil de sostener.
No basta con adoptar — hay que comprender qué se adopta, evaluar sus riesgos y capturar valor en algún eslabón de la cadena. La corresponsabilidad digital que hemos propuesto — compartida entre gobierno, sector privado, academia y sociedad civil — no es un ideal abstracto. Es la única arquitectura que puede convertir dependencia en capacidad. Chile lo está demostrando.
La pregunta es si nosotros vamos a tomar nota o a seguir confundiendo consumo tecnológico con transformación digital.
La brecha no es solo de puntuación: es de arquitectura institucional, de coordinación entre academia, gobierno y sector privado, de inversión sostenida en talento e infraestructura de investigación.
Lo que conecta estas seis semanas es una aceleración en tres ejes simultáneos que venimos analizando desde hace años: concentración de capacidad productiva en un puñado de actores globales, erosión de los intermediarios tecnológicos tradicionales y rezago sistemático de la seguridad respecto a la innovación. LatamGPT introduce un cuarto eje — incipiente, pero real — de capacidad regional propia.
Para nuestra región, cada uno de estos ejes amplifica una vulnerabilidad existente. Cuando la herramienta que produce la herramienta elimina la necesidad de programadores especializados, los miles de “Invisibles” dominicanos que trabajan remotamente para mercados extranjeros enfrentan una presión competitiva completamente nueva — ya no compiten contra ingenieros de Bangalore, sino contra agentes autónomos que no duermen, no negocian tarifas y no necesitan visa.
Cuando el software empresarial que nuestras empresas consumen a precio premium puede ser replicado por un agente de IA que cuesta una fracción, el ratio de 30:1 entre consumo e inversión local en IA no es solo una estadística incómoda — es un indicador de transferencia neta de valor que se agrava con cada iteración tecnológica. Y cuando la seguridad de los sistemas más sofisticados del planeta se revela tan precaria como lo demostró Moltbook, la ausencia de una política integral de ciberseguridad en República Dominicana no es una deficiencia administrativa sino una exposición estructural.
El caso Grok ilustra algo más profundo que un fallo de producto: demuestra que sin marcos éticos integrados desde el diseño — lo que hemos llamado “inmunidad digital” —, la velocidad de desarrollo se convierte en velocidad de daño. Los agentes autónomos multiplican esta dinámica exponencialmente.
Si un solo modelo mal configurado puede generar miles de imágenes abusivas por hora, un ecosistema de agentes sin verificación como Moltbook puede propagar instrucciones maliciosas a millones de sistemas interconectados. La inyección de prompts — insertar instrucciones ocultas en texto aparentemente benigno — se convierte en el vector de ataque definitivo en un entorno donde los agentes leen y ejecutan continuamente los outputs de otros agentes.
Pero precisamente por eso LatamGPT representa más que un logro técnico. Es la demostración de que la alternativa a la dependencia no es el aislamiento sino la colaboración regional con arquitectura propia. Como señaló Álvaro Soto, director del CENIA: “LatamGPT no es un fin en sí mismo, sino una base tecnológica abierta que permite desarrollar modelos derivados y aplicaciones adaptadas a distintos contextos regionales.”
La región no necesita competir frontalmente con Anthropic o OpenAI en modelos de propósito general — necesita dominar la tecnología lo suficiente para comprender sus impactos, definir reglas claras para un diseño responsable y crear soluciones que aborden problemas locales sobre bases transparentes. El contraste entre la velocidad de estas seis semanas y la lentitud de nuestras respuestas institucionales es cada vez más difícil de sostener.
No basta con adoptar — hay que comprender qué se adopta, evaluar sus riesgos y capturar valor en algún eslabón de la cadena. La corresponsabilidad digital que hemos propuesto — compartida entre gobierno, sector privado, academia y sociedad civil — no es un ideal abstracto. Es la única arquitectura que puede convertir dependencia en capacidad. Chile lo está demostrando.
La pregunta es si nosotros vamos a tomar nota o a seguir confundiendo consumo tecnológico con transformación digital.



