Corría 1942 cuando Isaac Asimov publicó Runaround —traducido al español como Círculo vicioso—, una de las primeras historias en las que aparecían las Tres Leyes de la Robótica, tan célebres como inquietantes. También fue la primera vez que se mencionaba la corporación US Robotics, marca ficticia que acabaría convirtiéndose en sinónimo de un futuro dominado por máquinas pensantes.
En el relato, dos ingenieros —Donovan y Powell— trabajan en una base en Mercurio en un entorno extremo y envían a un robot, Speedy, a recolectar una sustancia química esencial para la supervivencia humana, a la vez que letal al contacto. Pero el robot no regresa. En lugar de cumplir la orden, Speedy se comporta de forma errática: da vueltas en círculo, repite frases sin sentido y no ejecuta ni se retira. La causa de este comportamiento aparentemente absurdo es que dos de las leyes robóticas entran en conflicto: por un lado, debe obedecer a los humanos (Ley 2), pero por otro, debe protegerse del peligro (Ley 3). Ninguna orden es lo suficientemente imperativa como para imponerse del todo, y el robot queda atascado en un bucle lógico, incapaz de decidir. Solo un acto drástico, cuando Powell pone su propia vida en peligro acercándose a la sustancia química, activa la Ley 1 (preservar la vida humana), obligando al robot a romper su ciclo y actuar con decisión para salvarlo.
Ochenta años después, Círculo vicioso se ha convertido en una metáfora casi profética de nuestra relación actual con la inteligencia artificial. Nosotros, como sociedad, nos parecemos cada vez más a Speedy: atrapados entre dos pulsiones contradictorias. Por un lado, nos deslumbra el potencial de la IA para aumentar la productividad, automatizar tareas tediosas, generar innovación e incluso resolver problemas globales complejos. Por otro lado, nos paralizan los temores: el desempleo masivo, los sesgos algorítmicos, la pérdida de control sobre decisiones críticas, la desinformación y el uso malintencionado de estas herramientas.
Este tira y afloja entre fascinación y miedo genera un fenómeno social peculiar: una especie de parálisis colectiva. Se habla mucho de IA, se legisla más de lo que se comprende, se invierte con entusiasmo pero también con desconfianza. La ciudadanía, por su parte, observa el fenómeno desde la barrera: escucha promesas de revolución tecnológica, pero también advertencias apocalípticas. Y así, como Speedy, nos movemos en círculos.
Estamos inmersos en nuestro propio «conflicto de leyes», aunque no sean tan formales como las que imaginó Asimov. Podríamos hablar de la “ley del progreso”, que impulsa a gobiernos y empresas a no quedarse atrás en la carrera tecnológica global, y de la “ley del temor”, que nos exige prudencia ante una herramienta con consecuencias potencialmente irreversibles. Como resultado, la IA queda atrapada entre el desarrollo acelerado por intereses económicos y el bloqueo institucional por miedo a los efectos no deseados. Un ejemplo tangible es la Unión Europea, que ha lanzado el primer reglamento integral sobre IA —la ambiciosa Ley de IA— con cientos de páginas de requisitos técnicos, niveles de riesgo y obligaciones legales. Esta complejidad ha tenido ya efectos reales: he visto cómo clientes, ante la falta de claridad y el temor a incumplimientos, han optado por paralizar proyectos o dejarlos en pausa, ante la sensación de que innovar se ha vuelto un camino demasiado incierto.
Sin embargo, hay algo profundamente humano en esta tensión. Asimov no imaginó un mundo dominado por robots malvados, sino sistemas que fallan por exceso de lógica y ausencia de contexto.
Eso es precisamente lo que ocurre cuando dejamos que las decisiones sobre el futuro de la IA se basen únicamente en el miedo o en la codicia, sin introducir una visión ética, social y compartida.
En el relato, la solución al bucle fue una acción valiente y decidida por parte de Powell, un humano que comprendió que para desbloquear al robot no bastaba con más órdenes ni análisis: hacía falta una señal clara, incluso emocional. En nuestro caso, el equivalente podría ser una apuesta decidida por la educación en IA, no solo en universidades o empresas tecnológicas, sino en toda la sociedad. También significa democratizar el acceso a estas herramientas, garantizar su uso con valores humanos y mostrar ejemplos reales y positivos de su impacto.
Romper nuestro círculo vicioso exige que dejemos de ver la inteligencia artificial como una amenaza abstracta o una panacea mágica. Hay que entenderla como una tecnología poderosa que necesita dirección, propósito y responsabilidad. No podemos esperar a que el sistema se regule solo. La acción debe ser nuestra. Como Powell en Mercurio, debemos dar el paso que active la mejor versión de este nuevo aliado.
Porque al final, Speedy no estaba roto. Solo necesitaba claridad.