Figure AI: Capacidades de Robots Humanoides que Nadie Esperaba
Inteligencia Artificial8 de marzo de 2026

Figure AI: Capacidades de Robots Humanoides que Nadie Esperaba

Figure AI: Capacidades de Robots Humanoides que Nadie Esperaba



9 de marzo de 2026



~5 min lectura



Robótica e IA

robots humanoides inteligencia artificialFigure AI avances 2026Brett Adcock Figure robotrobótica con IA emergente

Descubre cómo iamanos.com, tu socio experto en IA con estándares globales y sede en CDMX, está redefiniendo el futuro con esta noticia clave. Brett Adcock acaba de encender la conversación más importante de la robótica en 2026. Figure AI no solo construye robots: está documentando el surgimiento de capacidades que ningún ingeniero programó explícitamente. Lo que está ocurriendo en los laboratorios de Figure no es ingeniería incremental. Es algo que los propios creadores admiten no haber anticipado.

01

El Anuncio que Sacudió a la Comunidad de Robótica Global

Brett Adcock, fundador y director ejecutivo de Figure AI, publicó un mensaje en redes sociales que en cuestión de horas se viralizó en los círculos de tecnología de vanguardia: su empresa está observando capacidades emergentes en sus robots humanoides que, según sus propias palabras, “ni siquiera sabían que eran posibles”. Esta declaración, proveniente del máximo líder técnico de una de las empresas de robótica más financiadas del planeta, no es hipérbole de marketing. Es una señal de alerta técnica de primer nivel.

En el ecosistema de la inteligencia artificial, cuando un operador habla de “capacidades emergentes”, se refiere a comportamientos complejos que aparecen de forma espontánea al escalar modelos o datos, sin haber sido diseñados o anticipados explícitamente. Que esto ocurra ahora en el dominio físico —en un robot que debe interactuar con el mundo real, manejar objetos, navegar entornos impredecibles y tomar decisiones en tiempo real— representa un salto conceptual que la industria apenas comienza a procesar.

Para los directores de tecnología y CEOs que están evaluando cuándo integrar automatización física en sus operaciones, este anuncio redefine el calendario. Las proyecciones más agresivas de la industria estimaban robots humanoides comercialmente competitivos para 2028-2030. Figure AI sugiere que ese horizonte podría colapsar a 2026-2027.

¿Qué significa técnicamente una “capacidad emergente” en robótica?

En los modelos de lenguaje de gran escala, las capacidades emergentes son bien documentadas: habilidades como razonamiento aritmético complejo, traducción entre idiomas o escritura de código aparecen de forma abrupta cuando los modelos superan ciertos umbrales de parámetros y datos de entrenamiento. El fenómeno no es lineal; es discontinuo. Los investigadores de Google Brain lo describieron formalmente en 2022, y desde entonces ha sido uno de los conceptos más debatidos en la ciencia de la inteligencia artificial.

Aplicar este mismo principio a sistemas robóticos físicos es significativamente más complejo. Un robot humanoide no solo procesa texto o imágenes; debe coordinar percepción visual, equilibrio dinámico, manipulación fina de objetos, planificación motora y adaptación en tiempo real a superficies irregulares. Que capacidades no programadas explícitamente emerjan en este dominio sugiere que los modelos de control neuronal de Figure han alcanzado un umbral cualitativo nuevo, posiblemente impulsado por la combinación de entrenamiento masivo en simulación y ajuste fino con datos del mundo real.

Figure AI en el contexto competitivo de 2026

Figure no compite en un vacío. En este 2026, el mercado de robots humanoides incluye a Boston Dynamics con su Atlas comercial, a Tesla con Optimus en fase de despliegue en sus propias plantas, a 1X Technologies respaldada por audio-video-integracion-2026/” target=”_blank” rel=”noopener noreferrer”>OpenAI, y a múltiples startups chinas aceleradas por subsidios gubernamentales. Sin embargo, Figure se distingue por su enfoque explícito en integrar modelos de lenguaje y visión directamente en el sistema de control del robot, creando lo que internamente llaman “inteligencia encarnada”.

El anuncio de Adcock llega en un momento donde la empresa ya había demostrado públicamente a su robot Figure 01 realizando tareas de manipulación complejas en entornos industriales. Que ahora se hablen de capacidades que “nadie esperaba” implica que Figure 02 —o la iteración en desarrollo— puede estar demostrando comportamientos de generalización que superan lo observado en cualquier sistema robótico anterior, incluyendo los de sus rivales directos. Puedes ver el paralelismo con lo que ocurrió en el sector financiero cuando Balyasny integró modelos de lenguaje avanzado en sus motores de investigación: el salto cualitativo fue más grande de lo que nadie anticipó.

02

El Impacto Estratégico para Empresas Manufactureras y de Logística

Para un director de operaciones en manufactura, logística o almacenes, este tipo de anuncio no es noticia tecnológica de fondo: es una decisión de inversión inminente. Las implicaciones son directas y urgentes.

Primero, la ventana de ventaja competitiva para los adoptadores tempranos se está cerrando más rápido de lo previsto. Las empresas que integren robots humanoides capaces de generalizar tareas —sin necesidad de reprogramación explícita para cada variante de un proceso— obtendrán ganancias de productividad que serán estructuralmente difíciles de replicar por competidores que esperen. Esto no es diferente de lo que observamos con la automatización de procesos cognitivos: como analizamos en nuestro artículo sobre despidos-masivos-automatizacion-ia-sector-tecnologico/”>el colapso corporativo impulsado por la automatización con IA en 2026, las empresas que actúan primero definen las reglas del juego.

Segundo, la naturaleza de la inversión en robótica está cambiando. Históricamente, implementar automatización física requería ingeniería personalizada, integración costosa y ciclos de configuración largos. Si los robots de Figure pueden adaptarse autónomamente a variaciones de tarea —el equivalente robótico del “prompting” en modelos de lenguaje— el costo de despliegue cae drásticamente y la escalabilidad se vuelve exponencial.

¿Qué sectores deben moverse primero en México y América Latina?

En el contexto latinoamericano, los sectores más expuestos y con mayor potencial de adopción temprana son manufactura automotriz (especialmente en el corredor industrial del Bajío), operaciones de almacén y última milla en e-commerce, y operaciones de planta en empresas agroindustriales. México, como segundo exportador manufacturero hacia Estados Unidos, está directamente en la trayectoria de este cambio tecnológico.

Estimamos que para finales de 2027, al menos 15 de las 50 plantas manufactureras más grandes de México iniciarán proyectos piloto con robots humanoides o semi-humanoides con IA generalizable. Las empresas que lleguen tarde a esta curva no solo perderán productividad; perderán contratos con clientes globales que exigirán los nuevos estándares de eficiencia que estos sistemas hacen posibles.

La conexión entre robots físicos y modelos de inteligencia artificial multimodal

Uno de los factores habilitadores más importantes detrás de los avances de Figure es la maduración de los modelos de inteligencia artificial multimodal: sistemas capaces de procesar simultáneamente texto, imágenes, audio y datos de sensores físicos para generar respuestas de control motor. Esta convergencia —que OpenAI ya está anticipando con su aproximación a sistemas omnimodales— es precisamente lo que desbloquea comportamientos emergentes en robots.

Cuando un robot puede “razonar” sobre lo que ve, lo que toca y lo que debe hacer en lenguaje natural interno, y luego traducir ese razonamiento en secuencias motoras precisas, la brecha entre inteligencia artificial y habilidad física empieza a cerrarse. Figure parece estar documentando exactamente ese momento de convergencia en sus laboratorios.

03

Lo que los Directivos Deben Exigir Saber Ahora Mismo

Ante anuncios de este calibre —donde el propio CEO admite estar sorprendido por lo que su tecnología es capaz de hacer— los líderes empresariales no deben quedarse en la expectativa pasiva. Existen preguntas concretas que deben estar sobre la mesa en las próximas sesiones de junta directiva.

¿Cuál es nuestro mapa de procesos físicos que hoy dependen de trabajo humano repetitivo? ¿En qué porcentaje de esas tareas podría un sistema autónomo físico generable —no un robot de tarea única— reemplazar o aumentar la capacidad humana en los próximos 24 meses? ¿Qué proveedores globales de robótica están en conversaciones activas con nuestros competidores directos? Estas no son preguntas filosóficas sobre el futuro del trabajo. Son preguntas de ventaja competitiva para el presente inmediato.

En iamanos.com trabajamos con empresas en México y América Latina para responder exactamente estas preguntas con rigor técnico y visión estratégica. Al igual que hemos analizado cómo los agentes de inteligencia artificial están transformando la productividad empresarial real, ahora es el momento de extender ese análisis al dominio físico.

El riesgo de la parálisis por análisis ante avances exponenciales

Existe un patrón recurrente en la adopción tecnológica corporativa: cuando los avances son tan rápidos que parecen inverosímiles, muchos líderes optan por esperar “hasta que la tecnología esté madura”. Ese instinto, que históricamente fue prudente, se ha convertido en el mayor riesgo estratégico de esta década.

La razón es matemática: cuando una tecnología crece exponencialmente y tú esperas en la curva lineal, la brecha no se reduce con el tiempo —se amplía. El anuncio de Brett Adcock no es una invitación a comprar robots mañana. Es una señal de que el ciclo de evaluación, piloto e integración debe iniciarse ahora, porque el tiempo de ese ciclo —típicamente 18-36 meses— coincidirá exactamente con el momento en que los sistemas de Figure y sus competidores estén listos para despliegue a escala.

¿Qué diferencia a Figure de otras empresas de robótica en el mercado?

A diferencia de empresas como Boston Dynamics —cuyo foco histórico ha sido la ingeniería mecánica de precisión— o de los sistemas industriales tradicionales de ABB y KUKA, Figure fue construida desde su origen sobre la premisa de que la inteligencia del robot debe vivir en el modelo de IA, no en la programación explícita de movimientos. Esto los posiciona de forma única para beneficiarse del progreso acelerado en modelos de inteligencia artificial, de la misma manera que un software nativo en la nube se beneficia automáticamente de mejoras en infraestructura de cómputo.

Esta distinción arquitectónica es la razón por la que declaraciones como las de Adcock son técnicamente creíbles. No está afirmando que sus ingenieros trabajaron más duro. Está afirmando que sus modelos de inteligencia, al ser entrenados con más datos y escalados en cómputo, están exhibiendo comportamientos cualitativamente nuevos. Es exactamente el mismo fenómeno que vimos en los modelos de lenguaje entre 2022 y 2025, replicándose ahora en el dominio físico.

04

Hacia Dónde Se Dirige la Robótica con Inteligencia Artificial en 2026

El anuncio de Figure AI no ocurre en aislamiento. En este 2026 estamos presenciando la convergencia de al menos tres tendencias que se refuerzan mutuamente: la maduración de los modelos de inteligencia artificial multimodal, la reducción acelerada del costo de actuadores y sensores robóticos, y el acceso a infraestructura de cómputo en la nube para entrenamiento a escala.

La combinación de estas tres fuerzas es lo que hace que el momento actual sea cualitativamente diferente a cualquier ciclo anterior de entusiasmo por la robótica. No estamos ante una mejora incremental de los robots industriales de los años 90. Estamos ante el inicio de una categoría nueva: sistemas físicos autónomos que aprenden, generalizan y sorprenden incluso a sus creadores.

Para los directivos que han seguido nuestro análisis sobre cómo la inteligencia artificial está redefiniendo el valor del trabajo físico versus el académico, este momento cierra el círculo: la IA ya no solo automatiza el trabajo cognitivo. Está comenzando a automatizar el trabajo que requería presencia corporal, habilidad manual y adaptación al entorno. La brecha entre lo que los robots podían hacer ayer y lo que Figure dice que pueden hacer hoy es, según su propio fundador, mayor de lo que nadie calculó.

Conclusión

Puntos Clave

Brett Adcock no es un comunicador de marketing que exagera para generar ruido. Es un ingeniero y fundador que construyó Figure desde cero y que ahora está documentando fenómenos en sus propios laboratorios que superan sus modelos mentales previos. Eso, en el lenguaje de Silicon Valley, es una de las señales más confiables de que algo genuinamente significativo está ocurriendo.

En iamanos.com interpretamos este anuncio como una señal de aceleración del calendario de adopción de robótica inteligente en sectores físicos. Las empresas que comiencen hoy sus procesos de evaluación, mapa de casos de uso y formación de equipos internos estarán posicionadas para capturar ventaja cuando los sistemas de Figure y sus competidores lleguen al mercado a escala comercial. Las que esperen tendrán que correr para alcanzar un estándar que ya habrá redefinido las reglas de su industria. La inteligencia artificial emergente ya no vive solo en servidores. Está aprendiendo a caminar.

Preguntas Frecuentes

Lo que necesitas saber

Son comportamientos complejos que aparecen de forma espontánea en sistemas de inteligencia artificial cuando se escalan en parámetros y datos, sin haber sido programados explícitamente. En robots, esto significa que el sistema puede realizar tareas o adaptarse a situaciones que sus ingenieros no anticiparon ni diseñaron directamente.

Figure construyó su arquitectura de control robótico sobre modelos de inteligencia artificial desde el inicio, en lugar de programación explícita de movimientos. Esto le permite beneficiarse directamente del progreso en modelos de lenguaje y visión, generando mejoras de capacidad que siguen la curva exponencial de la inteligencia artificial en general.

Con base en las señales actuales del mercado y los avances reportados por Figure AI, estimamos que los primeros despliegues comerciales a escala en manufactura y logística ocurrirán entre 2026 y 2028. Las empresas que inicien procesos de evaluación y piloto en 2026 estarán posicionadas para ser adoptadores tempranos con ventaja competitiva estructural.

Los sectores con mayor exposición y oportunidad son manufactura automotriz en el Bajío, operaciones de almacén y logística en e-commerce, y agroindustria. México, como hub manufacturero para Norteamérica, está directamente en la trayectoria de adopción de estas tecnologías y los líderes del sector deben actuar con urgencia estratégica.

El primer paso es mapear los procesos físicos repetitivos que hoy dependen de trabajo humano. El segundo es evaluar qué porcentaje de esas tareas podría ser automatizado por sistemas que generalizan instrucciones en lugar de ejecutar rutinas fijas. El tercer paso es construir capacidad interna para evaluar y gestionar sistemas robóticos con inteligencia artificial. En iamanos.com ofrecemos diagnósticos estratégicos para exactamente este proceso.

Fuentes consultadas
  • https://www.reddit.com/r/singularity

Convierte este conocimiento en resultados

Nuestro equipo implementa soluciones de IA para empresas B2B. Agenda una consultoría gratuita.

Hablar con el equipo →Más artículos