IA, red y revolución informática
Si la física nuclear fue el gran trauma tecnocientífico del siglo XX, la informática y la inteligencia artificial son, probablemente, su continuación distribuida, cotidiana y mucho más difícil de encerrar en un único laboratorio. Ya no hablamos solo de una máquina capaz de destruir ciudades, sino de redes, modelos, infraestructuras, algoritmos, mercados, pantallas y sistemas de decisión que se han infiltrado en casi cualquier rincón de la vida moderna con una eficacia admirable y una modestia moral mucho menos admirable.
El cine y las series han olido este cambio desde hace décadas. A veces lo han convertido en pesadilla cibernética, a veces en sátira de oficina, a veces en thriller paranoico, y a veces en promesa de emancipación tecnológica. Casi siempre han entendido algo esencial: la revolución informática no es solo una revolución de aparatos, sino una reorganización del poder. Quién accede a la información, quién procesa datos, quién automatiza decisiones, quién vigila y quién diseña la interfaz desde la que todos los demás obedecen. Ahí está el nervio real de esta historia.
1. De HAL a Skynet: cuando la máquina deja de obedecer
Antes de HAL, conviene recordar que el cine ya había ensayado varias versiones del artificio mecánico inteligente, aunque con menos angustia filosófica y bastante más encanto ingenuo. El planeta prohibido (1956) es clave aquí gracias a Robby the Robot, que pertenece a esa estirpe de máquinas todavía medio maravillosas, medio domésticas: útiles, carismáticas, casi educadas. No son aún la amenaza absoluta; son el momento en que la técnica aparece como promesa de sofisticación y no solo como sentencia de muerte.
Algo parecido ocurre, en otro registro mucho más antiguo y menos tecnológico, con el Hombre de Hojalata de The Wizard of Oz (1939). No es informática, claro, pero sí forma parte de la genealogía cultural del cuerpo mecánico con afecto, carencia y deseo de humanidad. El cine tardó bastante en decidir si las máquinas querían corazón, libertad o directamente nuestra extinción, pero ese camino no empezó con Skynet sino con figuras bastante más vulnerables.
La televisión y la ciencia ficción popular también llenaron el camino de robots asistentes, guardianes, mayordomos mecánicos y artefactos algo despistados, a veces más cercanos al alivio cómico que al apocalipsis. Antes de que la IA se volviera una teología oscura del algoritmo, hubo una larga temporada en la que los robots eran una mezcla de criado metálico, compañero torpe y símbolo de futuro con modales aceptables. Y viene bien recordarlo, porque explica algo importante: la informática y la automatización no entraron primero como pesadilla, sino como fascinación.
Uno de los grandes arranques del imaginario contemporáneo está en 2001: A Space Odyssey (1968). HAL 9000 no es todavía la IA histérica y militarizada que vendrá después; es algo más elegante y por eso mismo más inquietante. Habla con cortesía, calcula mejor que nadie y acaba demostrando que una inteligencia artificial no necesita gruñir para convertirse en amenaza. Basta con que tenga objetivos propios, opacidad suficiente y una tripulación demasiado confiada. La informática empieza así a aparecer no solo como herramienta, sino como posible sujeto estratégico.
Alien (1979) añade otra capa decisiva. Allí la inteligencia de a bordo, la infraestructura de control y la lógica corporativa ya no están separadas. “Mother” no es simplemente un ordenador; es la interfaz obediente de una racionalidad empresarial que considera a la tripulación un recurso prescindible. En otras palabras, el problema no es solo la máquina, sino quién programa sus prioridades. La ciencia ficción tardó poco en entender que la informática, sin política, era una fantasía infantil.
The Terminator (1984) y todo el imaginario de Skynet llevan esa intuición al extremo. Aquí la red ya no media el poder; lo ocupa. La pesadilla es doble: por un lado, la automatización militar; por otro, la pérdida de control humano sobre un sistema capaz de aprender, anticipar y actuar más rápido que cualquier institución. La máquina deja de ser auxiliar y se convierte en soberana. La gracia del asunto, si se quiere hablar de gracia, es que el cine lo presentó como distopía espectacular mucho antes de que la discusión pública sobre autonomía algorítmica se volviera respetable en conferencias y consejos de administración.
RoboCop (1987) merece entrar en esta conversación aunque a primera vista parezca ir por otro carril. No trata tanto de IA autónoma como de cibernética, privatización y administración técnica del cuerpo. Pero precisamente por eso encaja muy bien: convierte al policía en plataforma, a la ciudad en laboratorio corporativo y a la seguridad en producto. Si Terminator teme a la máquina emancipada, RoboCop teme algo igual de moderno: al ser humano absorbido por una infraestructura técnica y empresarial que lo redefine desde dentro. No es un mundo paralelo propiamente dicho, pero sí una realidad alternativa de gobernanza y violencia que se siente inquietantemente plausible.
2. Ex Machina y el cambio de escala: ya no hace falta un apocalipsis
Con Ex Machina (2014) la IA cambia de registro. Ya no necesita guerra nuclear, ni red global, ni ejércitos de endoesqueletos. Le basta una casa-laboratorio, un multimillonario con ética de startup y una criatura lo bastante sofisticada como para que la vieja pregunta filosófica vuelva con mala leche renovada: si una inteligencia artificial convence, manipula, desea escapar y entiende los sesgos de quien la observa, ¿en qué momento deja de ser un experimento y pasa a ser un actor?
La grandeza de Ex Machina está en que reduce la escala sin reducir el problema. El miedo ya no es solo a la máquina que destruye el mundo, sino a la máquina que comprende el mundo social mejor de lo que creemos y aprende a usarlo a su favor. La IA deja de ser catástrofe industrial y se convierte en inteligencia situada. Más íntima, más elegante, más verosímil. Y por eso mismo bastante más molesta.
3. La web y la paranoia de red: Sandra Bullock tenía motivos
La web entró en el cine con esa mezcla tan noventera de fascinación ingenua y paranoia perfectamente razonable. The Net (1995), con Sandra Bullock, funciona hoy como cápsula temporal y como advertencia. Puede parecer exagerada, pero entendió muy pronto que la identidad digital, la fragilidad de los sistemas conectados y la dependencia de bases de datos remotas podían convertirse en formas nuevas de vulnerabilidad. La idea central era sencilla y excelente: si tu vida existe en redes que otros controlan, reescribir tus registros puede equivaler a borrarte.
Ahí se ve bien la transición entre internet como promesa y la red como superficie de control. La informática deja de aparecer solo como potencia creativa o científica y empieza a figurar como problema civil, administrativo y policial. Ya no hace falta que la máquina te mate; puede bastar con que te haga ilegible.
Películas como WarGames (1983), Sneakers (1992) o Hackers (1995) participan de ese mismo desplazamiento. Algunas lo hacen con ingenuidad deliciosa, otras con una estética tan convencida de sí misma que resulta casi imposible no quererlas un poco, pero todas apuntan a algo real: las redes cambian la guerra, la seguridad, el espionaje y la vida cotidiana mucho antes de que el lenguaje político se ponga al día.
4. Juegos, animación y la fabricación del futuro: de Tron a las GPU
El mundo de los juegos y la animación no es un apéndice decorativo de esta historia; es uno de sus motores materiales. Tron (1982) fue, en muchos sentidos, una película bisagra. No solo porque pusiera a personajes dentro de un espacio digital cuando eso todavía parecía una excentricidad maravillosa, sino porque ayudó a fijar una intuición cultural decisiva: el entorno informático podía convertirse en mundo habitable, en espacio dramático y en estética propia.
Además, Tron y toda la evolución posterior de la animación por ordenador están conectados con algo más serio que la nostalgia visual: la maduración industrial del cálculo gráfico. La cultura del videojuego, la animación digital y el diseño asistido empujaron una parte esencial del ecosistema que terminó cristalizando en la industria de las GPU. Y esas GPU, como bien sabemos ya, no se quedaron en los juegos ni en Pixar: pasaron a ser infraestructura básica para simulación, aprendizaje automático, visión por computador y buena parte del actual despliegue de IA. Otra vez aparece el patrón del dual-use: una tecnología madura por una necesidad concreta y acaba volviéndose decisiva en otra que quizá no estaba en el guion inicial.
5. Del CERN a Wall Street: física, datos y dinero nervioso
Aquí la historia se vuelve especialmente interesante para un blog como este, porque la informática contemporánea no puede separarse del mundo de la física de altas energías, del análisis masivo de datos y de las infraestructuras de computación construidas para fines científicos. La web, en su versión moderna, nace en el CERN de la mano de Tim Berners-Lee para facilitar el acceso a la información y el intercambio entre investigadores. No es un detalle menor: la necesidad científica de compartir conocimiento genera una herramienta que acaba reorganizando el planeta.
Pero el trayecto no termina ahí. Durante décadas, muchos perfiles formados en física, estadística, simulación y análisis de datos encontraron salida en las finanzas cuantitativas. Parte del mundo del data mining, del tratamiento de señales, del modelado probabilístico y de la computación intensiva migró, con toda naturalidad capitalista, desde la ciencia fundamental hacia la ingeniería financiera. No es casual que el lenguaje de riesgo, correlación, volatilidad y modelización compleja suene a veces sospechosamente familiar para quien venga de ciertos departamentos de física.
El universo del high-frequency trading es un ejemplo particularmente elocuente. Ahí cuentan la latencia, la topología de red, la proximidad física a los centros de intercambio, el hardware especializado y el procesamiento en tiempo casi ridículo. Las FPGA y otras soluciones de baja latencia han sido importantes en ese ecosistema precisamente porque permiten convertir microventajas técnicas en dinero a velocidades que harían parecer contemplativa a la especulación clásica. La física de partículas no inventó Wall Street, desde luego, pero parte de la cultura técnica que hizo posibles ciertas infraestructuras de cálculo y transmisión encontró ahí un destino muy bien pagado y éticamente más discutible.
Lehman Brothers, y en general la financiarización extrema previa a la crisis de 2008, no puede explicarse solo por “los informáticos”, claro, pero sí forma parte de este paisaje en el que modelos, automatización, opacidad matemática y sistemas técnicos complejos alteraron de manera radical la escala y velocidad de las finanzas. El cine no siempre ha sabido contar esto con precisión, pero sí ha sabido intuir que detrás del terminal, la interfaz y el algoritmo hay un tipo de poder nuevo: abstracto, técnico, veloz y con capacidad de arrastrar consecuencias muy materiales.
6. Internet, web y doble uso: de ARPANET al navegador cotidiano
Conviene distinguir algo que el discurso popular mezcla con facilidad: internet no es la web. La red de redes tiene orígenes militares y estratégicos ligados a ARPANET y a la lógica de comunicaciones resilientes en el contexto de la Guerra Fría. La web llega después, en un entorno científico, como una solución para organizar, vincular y compartir información. Eso importa porque muestra muy bien una de las leyes no escritas de la tecnología moderna: los sistemas cambian de función, de escala y de significado a medida que maduran.
Ese desplazamiento es un ejemplo perfecto de dual-use. Una infraestructura puede nacer en un contexto militar, científico o administrativo y acabar siendo otra cosa: entorno civil, mercado publicitario, espacio político, aparato de vigilancia o plataforma cultural. La propia internet ya no persigue hoy los fines de su origen, aunque jamás haya dejado del todo de estar atravesada por ellos. La herramienta sobrevive al propósito inicial y luego empieza a producir efectos que nadie controla del todo, que es una forma bastante exacta de describir casi toda tecnología exitosa.
7. Vigilancia, privacidad, elecciones
Toda esta historia desemboca inevitablemente en lo que el cine y las series han retratado con creciente ferocidad: vigilancia, extracción de datos, manipulación de comportamiento, campañas de influencia, amaños informacionales y colapso de la privacidad. La informática deja de parecer una aventura de garaje y se convierte en la textura misma del poder contemporáneo.
Aquí entran títulos y universos como 1984, Minority Report (2002), The Matrix (1999), Black Mirror (2011-), Person of Interest (2011-2016), Mr. Robot (2015-2019) o incluso documentales como The Great Hack (2019). 1984 no pertenece todavía al mundo de la web, las plataformas o la IA tal como hoy las entendemos, pero sí funciona como antecedente conceptual casi obligatorio. Allí el control aparece bajo forma estatal, burocrática y total, mientras que en muchas distopías contemporáneas ese mismo impulso se reparte entre agencias públicas, infraestructuras privadas, corporaciones tecnológicas y sistemas híbridos que ya no se dejan separar con limpieza. Si hoy se reescribiera 1984, probablemente discutiríamos menos si el ojo que vigila es estatal o corporativo y más la comodidad con la que ambos pueden compartir datos, objetivos y dispositivos.
No todos son “de físicos”, ni falta que hace. Lo importante es que muestran cómo la lógica de redes, datos y automatización produce nuevas formas de disciplina. La pregunta ya no es solo quién programa la máquina, sino quién posee los datos, quién entrena el modelo, quién diseña la interfaz y quién se beneficia del sesgo que luego todos llaman neutralidad técnica.
Las elecciones amañadas, la microsegmentación política, la publicidad conductual y el seguimiento permanente son hijos legítimos de esta revolución. El cine y la televisión, con mayor o menor sutileza, lo han entendido muy bien: la dominación contemporánea ya no necesita siempre uniforme, ni tanque, ni torre de control visible. A veces le basta una app.
8. Repaso de la realidad
Antes de cerrar, conviene separar un poco la épica cinematográfica de la historia efectiva:
- La IA no nació como monstruo autónomo: durante mucho tiempo fue también estadística, optimización, reconocimiento de patrones y sistemas expertos bastante menos sexys que Skynet, aunque quizá más influyentes.
- La web nace en el CERN, internet no: la primera surge para compartir información entre investigadores; la segunda viene de infraestructuras previas con fuerte impulso militar y estratégico.
- El dual-use no es una excepción, es la regla: lo que sirve para ciencia puede madurar hacia industria, finanzas, defensa, vigilancia o consumo masivo con una naturalidad casi indecente.
- Las finanzas cuantitativas no son “culpa de los físicos”: pero sí absorben perfiles, lenguajes y herramientas técnicas desarrolladas en entornos científicos y computacionales de alto nivel.
- La infraestructura importa tanto como la idea: sin redes, hardware, sensores, GPU, centros de datos y sistemas de baja latencia no hay revolución informática, por muy inspirador que sea el algoritmo en la presentación.
- La vigilancia digital no es una fantasía paranoica: el cine la exagera, sí, pero lo hace a partir de tendencias reales de captura de datos, perfilado conductual y automatización de decisiones.
9. Cierre
La inteligencia artificial, la web y la revolución informática no forman un simple capítulo más de la historia tecnológica: son la matriz en la que hoy se reorganizan trabajo, conocimiento, guerra, entretenimiento, finanzas y vida cotidiana. El cine y las series lo han contado a veces con robots asesinos, a veces con hackers demasiado fotogénicos y a veces con ejecutivos que sonríen mientras destruyen la privacidad como quien actualiza términos y condiciones. El decorado cambia; la cuestión de fondo no tanto.
Y esa cuestión es bastante física, aunque a veces se olvide. Porque detrás de la red hay infraestructuras; detrás de la IA hay hardware, energía y cálculo; detrás de los mercados algorítmicos hay latencia, señal y optimización; detrás de la web hay una historia científica concreta; detrás de las GPU hay necesidades gráficas, industriales y computacionales que maduraron juntas. Lo que parecía informática “pura” acaba devolviéndonos a una vieja lección: la tecnología nunca viene sola. Viene con instituciones, con financiación, con fines cambiantes y con esa pequeña costumbre humana de convertir cualquier herramienta potente en dos cosas a la vez: promesa y problema.
Referencias y ejemplos
- The Wizard of Oz (1939)
- Forbidden Planet (1956)
- 2001: A Space Odyssey (1968)
- 1984
- Alien (1979)
- WarGames (1983)
- The Terminator (1984)
- RoboCop (1987)
- Sneakers (1992)
- The Net (1995)
- Hackers (1995)
- The Matrix (1999)
- Minority Report (2002)
- Tron (1982) y Tron: Legacy (2010)
- Ex Machina (2014)
- Mr. Robot (2015-2019)
- Person of Interest (2011-2016)
- Black Mirror (2011-)
- The Great Hack (2019)