La tecnología se ha presentado como una herramienta de liberación: conectar, curar, educar. Pero en el siglo XXI, sus promesas se han bifurcado.
Mientras millones disfrutan de asistentes virtuales, vehículos autónomos o algoritmos que predicen sus gustos, otros tantos viven bajo la amenaza de drones letales, vigilancia predictiva y algoritmos entrenados para matar. La innovación tecnológica ya no es solo un motor de progreso. Hoy, es también un arma estratégica.
Google, Microsoft, Amazon, Meta, OpenAI y otras grandes firmas han entrado de lleno en el negocio militar. Lo que comenzó como una colaboración esporádica —como el polémico Proyecto Maven, que aplicaba IA al análisis de imágenes de drones— se ha transformado en una integración estructural.
En la actualidad, muchas de estas compañías mantienen contratos activos con el Pentágono por valor de cientos de millones de dólares.
Con el regreso de Donald Trump a la Casa Blanca y su nuevo plan de rearme tecnológico, la implicación del sector privado se ha intensificado.
Decenas de ingenieros de estas empresas se han incorporado como reservistas tecnológicos al Detachment 201, una unidad especializada en diseñar soluciones digitales para conflictos armados. Silicon Valley ya no solo produce apps: produce armas.
El caso más extremo de esta fusión entre tecnología y violencia es el que actualmente se vive en Gaza. Desde octubre de 2023, el llamado Estado de Israel ha llevado a cabo una operación militar sostenida contra la Franja, con un saldo de decenas de miles de víctimas civiles, más de la mitad de ellas mujeres y niños.
Según informes recientes de Francesca Albanese, la Relatora Especial de la ONU sobre la situación de los derechos humanos en los territorios palestinos ocupados (A/HRC/59/23), lo que se está perpetrando en Gaza constituye un genocidio en curso, basado en ataques sistemáticos e indiscriminados, desplazamientos forzados y bloqueo total de alimentos, agua y asistencia médica.
Una parte clave de esta maquinaria de exterminio es tecnológica: plataformas basadas en inteligencia artificial —como los sistemas "Lavender" y "Gospel"— permiten identificar presuntos objetivos con escasa supervisión humana. Los ataques se procesan a velocidades tan altas que los errores son inevitables… pero ya no se corrigen, solo se normalizan.
Este uso militar de sistemas automatizados ha sido posible, en parte, gracias a tecnologías desarrolladas en el entorno comercial: redes neuronales, infraestructura de datos en la nube, reconocimiento facial, análisis predictivo.
En algunos casos, empresas occidentales han proporcionado soporte técnico o infraestructura digital a contratistas israelíes:
En este entramado, España juega un papel relevante. Varias empresas tecnológicas y de defensa españolas mantienen vínculos comerciales y colaboraciones con socios occidentales e israelíes, aportando tecnología que puede ser utilizada en operaciones militares y sistemas de vigilancia.
Compañías como Indra, GMV o filiales de Elbit en territorio español participan en proyectos de seguridad y defensa que, aunque en muchos casos buscan modernizar fuerzas nacionales, forman parte de una red global que alimenta la militarización tecnológica en zonas de agresión como Gaza, donde la tecnología occidental juega un papel clave en la violencia sistemática.
Además, España mantiene acuerdos estratégicos con Estados Unidos e Israel que incluyen cooperación en inteligencia y desarrollo tecnológico militar, lo que refuerza su implicación en esta cadena global de transferencia de innovaciones, know-how y fabricación de componentes.
Este contexto plantea serios dilemas éticos y políticos, especialmente ante el uso de estos avances en situaciones denunciadas como genocidio por organismos internacionales.
Gaza no es la única zona de prueba. En Ucrania, el conflicto con Rusia ha acelerado el desarrollo de tecnologías bélicas impulsadas por inteligencia artificial.
Kiev ha adoptado drones económicos guiados por fibra óptica, software táctico en tiempo real y sistemas de visión artificial que pueden ser manejados incluso por menores con habilidades en programación. La defensa nacional se ha transformado en un ecosistema startup con enfoque militar.
Rusia, por su parte, ha desplegado enjambres de drones autónomos para atacar infraestructuras civiles. El resultado: una guerra sin cuartel en la que el campo de batalla ya no es solo físico, sino también digital y algorítmico.
Durante la Guerra Fría, Dwight D. Eisenhower advirtió sobre el “complejo militar-industrial”. Hoy ese complejo ha mutado: es tecnológico, global, y con rostro de CEO. Las Big Tech, en lugar de resistirse, han asumido un rol activo.
Algunas han eliminado de sus estatutos cualquier restricción ética sobre el uso de IA en armamento. Otras, como Microsoft o Palantir, ofrecen servicios directamente al ejército israelí o al Departamento de Defensa de EEUU.
El giro es evidente: ya no se trata de evitar el mal uso de la tecnología, sino de convertirlo en modelo de negocio.
El informe de la Relatora Especial de la ONU subraya que en contextos como Palestina se ha institucionalizado una forma de ocupación algorítmica. Esto significa que, además del control territorial, se ejerce un control automatizado sobre cuerpos, movimientos, datos y decisiones.
El uso de tecnologías de vigilancia masiva, reconocimiento facial y bases de datos segmentadas por perfil étnico permite administrar la ocupación como si se tratara de un sistema logístico: sin intervención humana directa, pero con una eficiencia desmedida.
Las tecnologías que permiten esto no son ciencia ficción. Son las mismas que se usan a diario para desbloquear un móvil, organizar la agenda o buscar información en internet.
Aunque en años recientes hubo protestas masivas de empleados —como las que obligaron a Google a abandonar el Proyecto Maven en 2018—, hoy ese espíritu crítico ha sido reemplazado por silencio corporativo y despidos fulminantes. Las compañías justifican su implicación militar en nombre de la “seguridad nacional” y de la competencia con China.
Pero el coste es alto: se está construyendo una infraestructura tecnológica que no solo facilita la guerra, sino que hace de la guerra un producto gestionable, vendible y escalable.
La pregunta ya no es si la tecnología puede hacer la guerra más eficiente, sino hasta qué punto el poder político, económico y militar está dispuesto a permitirlo. Cada dron automatizado, cada algoritmo que selecciona objetivos, cada contrato firmado sin supervisión ética refuerza una estructura global de violencia digitalizada.
El caso de Gaza expone el extremo: un genocidio ejecutado con precisión algorítmica, donde las decisiones letales se delegan a sistemas diseñados para maximizar eficiencia, no justicia.
Pero este modelo no se limita a un solo conflicto. Está siendo replicado, financiado y normalizado por gobiernos y empresas de todo el mundo. Ucrania, Siria, Etiopía, Sudán, Congo, Yemen… son más que nombres en el mapa. Son señales de advertencia.
La guerra ha dejado de ser únicamente un acto humano. La inteligencia artificial ha comenzado a operar no solo como instrumento, sino como motor autónomo dentro de la maquinaria bélica.
La pregunta no es si la tecnología puede ayudar a hacer la guerra más eficiente. La verdadera cuestión es si es aceptable que lo haga. Cada dron automatizado, cada algoritmo que toma decisiones letales, cada contrato que financia un genocidio interpela a la sociedad: ¿para qué se innova? ¿Quién decide qué usos son legítimos? ¿Qué límites se pueden tolerar?
Sin controles éticos y jurídicos firmes, ya no será el ser humano quien haga la guerra con máquinas, sino las máquinas quienes arrastren a la humanidad a ella.