El riesgo de la inteligencia artificial china
Filip Jorouš*
Los macrodatos son el nuevo petróleo. La inteligencia artificial (IA) es la nueva electricidad. Al igual que en los primeros días de la electricidad, nadie sabe muy bien qué se puede hacer con la IA, pero todo el mundo está invirtiendo en ella e imaginando cómo puede cambiar nuestras vidas. ¿Los únicos ganadores reales hasta ahora? Las empresas que proporcionan el hardware y las herramientas para hacer funcionar la caja mágica.
Pero incluso si la IA se convierte en la fuerza de cambio que se predice, puede que no todo sea ideal. Se teme que la IA desestabilice la sociedad como lo hizo la Revolución Industrial en términos de pérdida de empleo y pobreza. Los humanos podrían ser sustituidos no sólo en tareas laborales. Y más preocupante es que la IA pueda utilizarse en los procesos de toma de decisiones, incluidos los que implican matar a personas, como se ha demostrado en Gaza y Ucrania.
El abuso estatal de la IA y la automatización para la seguridad (como el reconocimiento facial) y el control de la sociedad es objeto de escrutinio en el mundo democrático. Algunos países han redactado leyes para limitar los daños éticos de esta nueva tecnología. La UE aprobó su ley en marzo, en la cual introduce el concepto “IA de confianza”: los sistemas basados en esta tecnología tendrán que demostrar que no son perjudiciales, incluso en sus aspectos no técnicos. La legislación también obliga a altos niveles de transparencia.
Por su parte, los regímenes autoritarios tienen un enfoque completamente distinto. Y una dictadura en particular invierte mucho en ella: la República Popular China. ¿En qué? En medidas de seguridad como las que describe el libro “1984”, en compensar la reducción de la mano de obra, en sustituir el factor humano –poco fiable e incontrolable– en la gobernanza y en los asuntos militares. La IA es la electrificación que puede hacer realidad los sueños del Partido Comunista Chino (PCCh). Y deberíamos estar preocupados.
La caja mágica. A pesar de toda la locura reciente, la IA no es nada nueva. Turing (de ahí el Test de Turing) y otros crearon el concepto ya en los años cuarenta y cincuenta. Los juegos fueron su primer campo importante y la primera IA venció al campeón mundial de ajedrez Garry Kasparov en su propio juego, en 1997. Entonces, ¿en qué consiste esta nueva tendencia? En general, IBM, una de las mayores multinacionales tecnológicas, la define como “la tecnología que permite a ordenadores y máquinas simular la inteligencia humana y su capacidad para resolver problemas”.
La principal diferencia, sin embargo, es que la “nueva IA” se basa en un concepto crucial: el aprendizaje automático. Cuando se le pide que genere un resultado, la plataforma de IA toma criterios de lo que ha aprendido, los sopesa y crea contenidos que dependen de la calidad y profundidad de los datos consumidos. A diferencia del software tradicional, los detalles del proceso (es decir, cómo el sistema llegó exactamente a esa conclusión) no son del todo comprendidos por sus creadores.
Sin embargo, es la IA generativa la que ha acaparado los titulares. ChatGPT, la plataforma 2022 de OpenAI, donde GPT significa “transformador generativo preentrenado”, es el ejemplo más famoso. Estos modelos alimentan grandes conjuntos de datos a grandes redes neuronales artificiales (que imitan la estructura y las operaciones de las conexiones neuronales en los cerebros biológicos) para darles la capacidad de responder a peticiones. Estas peticiones o preguntas pueden ir desde proporcionar datos hasta crear imágenes y sonido.
Por lo tanto, ¿se apoderará la IA del mundo como en la película Matrix? Pues no exactamente. El estado actual de la IA no se acerca ni de lejos a la capacidad de un ser humano, sobre todo cuando se trata de enfrentarse a situaciones nuevas. Está limitada a sus conjuntos de datos y, literalmente, no puede pensar de forma innovadora.
Externalizar el factor humano. Sin embargo, la IA puede matar y afectar a las vidas humanas tanto de forma positiva como absolutamente negativa. Esto ocurre al externalizar el factor humano a una máquina en la toma de decisiones. Esto no solo deshumaniza el proceso en sí, sino que convierte cualquier resultado en “científico”, sin mayor escrutinio. Además, los humanos evitan el dilema ético externalizando la responsabilidad y la rendición de cuentas a una máquina. Esto es un atolladero ético.
En ningún ámbito es tan delicado como en el uso militar y policial. Una reciente investigación palestino-israelí reveló que el ejército israelí utilizaba el sistema Lavender para “marcar a decenas de miles de habitantes de Gaza” como objetivos para ataques militares. Según el estudio, el sistema tiene una precisión del 90% al “identificar la afiliación de un individuo a Hamas”, lo que se consideró suficiente para que el ejército tratara ese reconocimiento como una orden de asesinato, “sin necesidad de comprobar de forma independiente por qué la máquina hizo esa elección”. Muchos de estos objetivos generados por la IA fueron asesinados en sus domicilios.
A la vez, empresas tecnológicas occidentales han convertido a Ucrania en un laboratorio de inteligencia artificial. El riesgo del uso de IA con fines militares es algo que una iniciativa liderada por EE.UU. y el Reino Unido trata de abordar. En 2023, treinta y un países firmaron una declaración que establece la necesidad de “un enfoque basado en principios para el uso militar de la IA” y la minimización de “sesgos y accidentes no intencionados”, garantizando la transparencia de dichos sistemas y creando salvaguardas para evitar el asesinato de inocentes y las escaladas indebidas.
Un mundo feliz. En este contexto, ¿dónde se posiciona China? La China contemporánea se compara a menudo con el libro 1984, de George Orwell. La gente imagina un mundo lleno de cámaras, vigilancia constante que aplasta el alma y restricciones aleatorias destinadas a aislar al individuo y volverle loco. Aunque la sociedad china moderna guarda cierto parecido con la dictadura fascista –que pretendía ser socialista–, que describió George Orwell, otro libro distópico dos décadas más antiguo podría acercarse más a cómo se siente la China de hoy en día.
Un mundo feliz, de Aldous Huxley, cuenta la historia de una sociedad estrictamente jerárquica con grandes diferencias en la vida de las castas inferiores y superiores. Especialmente los estratos superiores se mantienen a raya gracias al consumismo patrocinado por el Estado y a ejemplos de cómo debe ser la vida de un individuo. El Estado chino trata de ser exactamente eso, fijando para los individuos los estándares morales y culturales para mantenerlos a raya.
Sin embargo, es la otra parte del libro la que encaja bien aquí: el consumismo destinado a limitar el deseo de libertades políticas. Cuando todo está al alcance de una aplicación, es moderno, rápido y asequible, ¿por qué iba a preocuparse un materialista moderno por la falta de sufragio y de representación legítima? Dicho esto, no todo en la dictadura china son consumismo y diversión.
Xinjiang: ‘1984’. Una vez que uno se aventura más allá de la ambiguamente definida “línea roja política”, surge rápidamente el Estado fascista orwelliano. Las cámaras, la policía política, los delitos de pensamiento… todo ello existe tras el velo consumista moderno cuando alguien pone en peligro la seguridad política, es decir, la propia seguridad del régimen según el lenguaje político comunista.
El verdadero 1984 ha existido desde 2014 en Xinjiang, la región de mayoría musulmana en el noroeste de China. La gente empezó a desaparecer por la noche. Rezar se convirtió en delito. Estudiar religión también. Ser el estereotipo de un musulmán uigur era visto como posible evidencia de terrorismo. Las comisarías se volvieron omnipresentes, y en algunos lugares, los movimientos se restringieron por completo. Millones acabaron en campos de reeducación, o en cárceles o... muertos. Es la Revolución Cultural 2.0: silenciosa, lenta, sin espectáculo, pero más eficaz para destruir culturas “atrasadas” y sospechosas.
Pero fue el aspecto tecnológico el que dio a Xinjiang su verdadera naturaleza orwelliana. Aparte de la vigilancia por reconocimiento facial o la forma de andar, China empleó desde 2014 algo especial: la Plataforma Integrada de Operaciones Conjuntas (IJOP). La ONG Human Rights Watch (HRW) descubrió que el sistema policial utilizaba datos personales obtenidos ilegalmente a través de la vigilancia constante “de todos en Xinjiang” para identificar a terroristas sospechosos. Cuando “dejaban de usar teléfonos inteligentes”, no “socializaban con los vecinos” o cuando “recogían con entusiasmo dinero para las mezquitas”, se convertían en sospechosos.
Los resultados de la plataforma IJOP obligaba a las fuerzas de seguridad a restringir la circulación de las personas en los puestos de control. Incluso en casos en los que los humanos hubieran considerado inocente a un sospechoso, un individuo podía ser detenido en base a la mágica evaluación del IJOP. Esta evaluación se basaba muchas veces en sesgos y generalizaciones extremos.
El sueño chino de la inteligencia artificial. En China son pocos los que protestan contra las aplicaciones de seguridad de la IA. No solo porque es casi imposible organizar una protesta seria contra el gobierno, sino también porque amplios segmentos de la población la aprecian. Especialmente cuando se trata de los “terroristas” uigures.
De los 15 mil millones de dólares que el país invierte en IA, hasta el 50% se destina a la visión artificial, utilizada para sistemas de vigilancia automatizados. Para el Estado chino, la seguridad y el control de la población son fundamentales, y esta sigue siendo una de las herramientas más importantes para mantener a todo el mundo bajo control. En realidad, China puede volverse orwelliana rápidamente cuando ve amenazada su seguridad política. Pero el llamado “tecnoautoritarismo”, no se limita a garantizar que todo el mundo cumpla la ley y no proteste.
El PCCh también utiliza la IA para optimizar su burocracia, con el fin de garantizar que el Estado provea estándares mínimos a sus ciudadanos. La corrupción y la ineficacia de los funcionarios ha sido uno de los principales problemas para el régimen. Antes de la llegada de Xi al poder, la desconfianza entre el gobierno central y los funcionarios locales, a menudo conducía a la recopilación de datos por separado y a la duplicación de esfuerzos similares. Ahora, incluso los cuadros del Partido-Estado y sus actividades laborales están estrechamente vigilados. Limitar el factor humano es intrínsecamente bueno en opinión del Partido.
Esa limitación es también un objetivo en asuntos militares. Según un informe de 2023 sobre IA en la planificación militar de China, los mandos de la República Popular “conciben las guerras futuras como conflictos entre sistemas de armas no tripulados, que operan de forma autónoma con una interferencia limitada de los operadores humanos”. Argumentan que la toma de decisiones humana sólo debería dominar el nivel estratégico.
El comunismo es científico, no así la ética. Si bien China tiene carencias en innovación y tecnología en comparación con Silicon Valley, las empresas chinas tienen dos grandes ventajas: la cantidad de datos disponibles y la falta de límites éticos. Ya en 2017, el gobierno identificó la IA como una herramienta importante para construir sus fortalezas y capacidades en las “Regulaciones de desarrollo sobre una nueva generación de inteligencia artificial”. Xinjiang ha sido el laboratorio.
Esto es, acceso completo a conjuntos de datos sobre la vida de 26 millones de residentes, todos ellos disponibles para la experimentación y la innovación. El Estado proporcionó, además, a las empresas privadas grandes subvenciones para construir y mantener el campo de internamiento impulsado por IA que es la región. El genocidio uigur es lo que ha convertido a China en el principal exportador de equipos de vigilancia, especialmente de sistemas potenciados por IA, como las cámaras de reconocimiento facial.
La falta de normas éticas no se limita a la vigilancia. En 2018, un biofísico chino anunció que había modificado genéticamente a dos niños. La presión internacional hizo que las autoridades chinas lo detuvieran y condenaran a tres años, pero ya ha vuelto a trabajar en el campo genético. Esto no es excepcional: China realizó sus primeros experimentos genéticos con embriones humanos ya en 2015. Es probable que siga haciéndolo, porque la tecnología puede mejorar a los humanos. Y el PCCh ve a los humanos como un recurso clave.
La carga democrática. ¿Y al otro lado? El modelo occidental de gobierno no es ideal. Tampoco lo es la democracia liberal. Los Estados occidentales también abusan a menudo de sus poderes y llevan a cabo acciones inmorales. Pero es el único sistema que ofrece espacio para un debate abierto. Las protestas pueden tener fácilmente un impacto real. Además, los Estados occidentales han demostrado una ambición casi única por autorregularse, a pesar de que a menudo se queda en palabras. El debate democrático sobre moral o sobre las posibles consecuencias negativas del uso de nuevas tecnologías revolucionarias es fundamental. Debe prevenir grandes excesos y, en los casos en los que empezamos a jugar a ser Dios –como la genética o la creación de mentes robóticas–, debería ser capaz de garantizar que seguimos siendo humanos. Los regímenes autoritarios funcionan de forma diferente. El objetivo de China, Rusia y otros es incrementar capacidades sin tener en cuenta la moral ni las posibles consecuencias.
Mientras el mundo debate la seguridad de la agricultura modificada genéticamente, los científicos chinos han estado experimentando con embriones humanos. Mientras el mundo libre debate cuestiones de privacidad relativas al reconocimiento facial, China tiene sistemas de este tipo por todo el país. Mientras Occidente intenta regular la aplicación militar de la IA, por muy declarativa que sea, China quiere sistemas de IA completamente autónomos para dominar a nivel táctico militar.
Las capacidades de IA de China preocupan no sólo porque aumenta el poder del Partido-Estado, sino también porque está exportando su tecnología y política de control de la población al extranjero. Solo una regulación ética podrá detenerla.