
Por qué es tan difícil, y necesario, regular la inteligencia artificial
Entrevista con la politóloga Allison Stanger
Por Carl-Johan Karlsson
May 2025 Las poderosas capacidades de la inteligencia artificial, IA, antes consideradas una perspectiva lejana, se han convertido rápidamente en una realidad. La llegada de la IA moderna, basada en técnicas avanzadas de aprendizaje automático y profundo, deja a los gobiernos luchando por ponerse al día y decidir cómo evitar una letanía de amenazas para la sociedad, como la propaganda cada vez más persuasiva, los ciberataques a infraestructuras públicas y la capacidad de alcanzar niveles de vigilancia sin precedentes por parte de gobiernos y empresas.Una experta en la vanguardia de ese debate es la politóloga Allison Stanger, del Middlebury College. Además de su cátedra en Vermont, Stanger es profesora asociada del Berkman Klein Center for Internet & Society de la Universidad de Harvard y autora de varios libros, entre ellos Who Elected Big Tech?
¿Cómo caracterizaría las amenazas de la IA?
Hay dos maneras de verlo. Existen las amenazas a la democracia, en las que la inteligencia artificial agrava los problemas existentes, como los problemas de privacidad, la volatilidad de los mercados y la desinformación. Y luego están las amenazas existenciales para la humanidad, como la IA desalineada [IA que no se comporta en consonancia con los objetivos y valores humanos previstos], la guerra con drones o la proliferación de armas químicas y biológicas.
Un argumento común es que los humanos siempre han estado preocupados por las nuevas tecnologías. ¿En qué se diferencia la IA?
Es una respuesta válida para la mayor parte de la historia de la humanidad: la tecnología cambia, la humanidad se adapta y se alcanza un nuevo equilibrio. Pero lo que hace diferente a esta innovación tecnológica en particular es que sus creadores no la entienden del todo. Si pensamos en otros avances tecnológicos, como el automóvil, puede que yo no sepa arreglar mi vehículo, pero hay alguien que sí. Lo que ocurre con la IA generativa es que, aunque sus creadores entienden las redes neuronales y el aprendizaje profundo, los algoritmos que la sustentan, no pueden predecir lo que va a hacer un modelo. Si algo va terriblemente mal no pueden saber inmediatamente cómo arreglarlo. En ese sentido es como inteligencia extraterrestre.
¿Cómo podría la IA empeorar la guerra con drones y la proliferación de armas químicas y biológicas?
Las amenazas existenciales para la humanidad no significan necesariamente robots asesinos: pueden ser sistemas de IA que se desbocan, que hacen cosas para las que no fueron diseñados o que no se preveía. Las amenazas existenciales surgirán si la IA alcanza un umbral en el que se confíe en ella para tomar decisiones sin intervención humana. Los drones son un buen ejemplo. Y luego está el riesgo de que la IA se utilice para crear armas biológicas o químicas. La cuestión básica es cómo evitar que la tecnología sea utilizada indebidamente por agentes malintencionados.
¿Cómo exacerba la IA amenazas a la democracia, como la desinformación y la volatilidad de los mercados?
Ya sin IA, el actual sistema de redes sociales es fundamentalmente incompatible con la democracia. Para debatir los próximos pasos políticos, se necesita un núcleo de personas que crean que las mismas cosas son ciertas, y eso ha saltado por los aires debido a los algoritmos de recomendación que generan transmisiones virales de odio, desinformación y propaganda. La IA solo automatiza todas esas cosas y facilita la amplificación y distorsión del discurso humano. La automatización es también lo que podría traer una mayor volatilidad a los mercados financieros. La IA también supone una amenaza muy real para la autonomía individual. La mejor forma en que puedo describirlo es que, si alguna vez te han facturado algo incorrectamente, es casi imposible que te atienda un humano por teléfono. Pasas por todos esos robots que te hacen preguntas y dan vueltas en círculos, sin que te atiendan directamente. Así es como caracterizaría la verdadera amenaza insidiosa de la IA: si la gente confía cada vez más en ella, al final todos nos quedaremos atrapados en este mundo kafkiano que nos hace sentir superpequeños e insignificantes, como si no tuviéramos derechos humanos básicos.
¿Qué leyes nacionales considera más importantes para frenar la IA?
Tenemos que dejar muy claro que los humanos tienen derechos, pero los algoritmos no. El debate nacional sobre la libertad de expresión en las plataformas en línea está actualmente distorsionado y confuso. La Corte Suprema de EE.UU. parece haber creído que las plataformas de redes sociales son solo portadoras de información; solo transmiten cosas que la gente publica de alguna manera cronológica. Sin embargo, la reciente decisión unánime de mantener la prohibición de TikTok sugiere que su interpretación es cada vez más precisa. Todo lo que se ve en Internet está mediado por un algoritmo diseñado específicamente para optimizar el compromiso, y resulta que los seres humanos se comprometen más cuando están enfadados. Y tenemos que responsabilizar a la empresa que diseñó ese algoritmo de cualquier daño causado. Las empresas tienen derecho a la libertad de expresión. Pero una empresa es un conjunto de seres humanos. Y eso es diferente de una máquina, que es un instrumento de los seres humanos.
¿Ha avanzado Estados Unidos en este sentido?
En Estados Unidos hemos presentado una ley para derogar la Sección 230, un escudo de responsabilidad que dice que las plataformas no son editores, o sea, no son responsables de nada de lo que ocurra en ellas. No hay ninguna otra empresa en Estados Unidos, aparte de las tecnológicas, que tenga este escudo de responsabilidad. Si se aprueba la legislación propuesta, el artículo 230 quedará derogado a finales de 2025, lo que permitirá que la jurisprudencia de la Primera Enmienda se desarrolle para nuestra plaza pública virtual y que las plataformas sean responsables como cualquier otra empresa.
¿Hay otras propuestas legislativas sobre IA en EE.UU.?
Hay mucha legislación ya redactada para la seguridad de la IA. Está la Ley de responsabilidad algorítmica, que exige a las empresas evaluar el impacto de los sistemas automatizados para garantizar que no crean resultados discriminatorios o sesgados; está la Ley de responsabilidad DEEPFAKES, que pretende regular el uso de la IA para crear contenido deepfake engañoso o perjudicial; y está la Ley de innovación del futuro de la inteligencia artificial, que fomenta el estudio del impacto de la IA en la economía, la mano de obra y la seguridad nacional. Estados Unidos es la sede de las grandes empresas tecnológicas, y lo que hace Estados Unidos es importante para el mundo. Pero no estamos teniendo el debate público necesario para que los políticos hagan algo. Europa ha sido pionera en la gobernanza de la IA, y hay mucho que podemos aprender de la UE.
¿Qué tipo de normativa ha establecido la Unión Europea?
Está la Ley de inteligencia artificial de la UE, que clasifica los sistemas de IA en niveles de riesgo (inaceptable, alto, limitado, mínimo) e impone normas más estrictas a las aplicaciones de mayor riesgo; la Ley de mercados digitales, dirigida a las grandes plataformas en línea para evitar prácticas monopolísticas; el Reglamento de servicios digitales, que obliga a las plataformas a eliminar contenidos ilegales, combatir la desinformación y ofrecer mayor transparencia sobre algoritmos y anuncios. Por último, está el anterior GDPR —el reglamento general de protección de datos—, que da a los individuos más control sobre sus datos personales e impone requisitos a las empresas para la recopilación, procesamiento y protección de datos. El estado de California adoptó una versión del GDPR en 2018.
¿Cómo cree que podemos conseguir una gobernanza mundial de la IA? ¿Deberíamos tener tratados internacionales como los que tenemos para las armas nucleares?
Creo que deberíamos aspirar a tratados, sí, pero no van a ser como los de las armas nucleares, porque las armas nucleares son mucho más fáciles de regular. La gente corriente no tiene acceso a los componentes necesarios para construir una bomba nuclear, mientras que en el caso de la IA hay muchas cosas disponibles comercialmente.
¿Cuál es la principal diferencia en la forma en que China y Estados Unidos regulan la IA?
China tiene una ética muy clara en su sistema político: es utilitarista -el mayor bien para el mayor número. Las democracias liberales son diferentes: protegemos los derechos individuales y no se pueden pisotear por el bien de la mayoría. El gobierno chino ejerce un control más estricto sobre las empresas que construyen allí sistemas de IA. En 2023 China aprobó sus “Medidas para la gestión de servicios de IA generativa”, que exigen a los proveedores garantizar que el contenido generado por IA se ajusta a los valores socialistas del gobierno. Los proveedores deben evitar contenidos que puedan socavar la unidad nacional o la estabilidad social y son responsables de la legalidad de sus datos de entrenamiento y de los resultados generados. Como existe una relación simbiótica entre las empresas y el Estado, la vigilancia gubernamental no es un problema: si una empresa obtiene tus datos personales, el Partido Comunista también los obtendrá. Así que China tiene una gran seguridad de la IA, pero sus ciudadanos no son libres. No creo que el mundo libre deba estar dispuesto a hacer este tipo de concesiones.
¿Cómo afecta esta diferencia entre sistemas autoritarios y democráticos a la gobernanza internacional de la IA?
Lo que propongo es un enfoque de doble vía, en el que colaboremos con nuestros aliados para mantener vivas la libertad y la democracia, al tiempo que trabajamos para reducir el riesgo de guerra con las no democracias. Todavía hay cosas que podemos acordar con países como China.
¿Cómo cree que afecta a la regulación de la IA la división política en Estados Unidos, donde los republicanos tienden a apoyar un enfoque de no intervención en los negocios?
Hay verdaderos creyentes en los enfoques laissez-faire del mercado, y los republicanos ven a menudo al gobierno como un torpe administrador de regulaciones. Y hay algo de verdad en ello. Pero quién va a poner barreras si no es el gobierno. No van a ser las empresas, ese no es su trabajo. Es tarea del gobierno velar por el bien común y asegurarse de que las empresas no sobrepasen ciertos límites y perjudiquen a la gente. Los europeos lo entienden instintivamente, pero los estadounidenses a veces no, a pesar de que a menudo se benefician de la protección gubernamental para garantizar la seguridad pública. Mi esperanza es que podamos convencerlos sin que una catástrofe a gran escala les enseñe a través de la experiencia.
*Artículo traducido por Debbie Ponchner
*Adaptado de un artículo publicado por la Revista Knowable. Texto completo aquí.
La Voz, Cultura y noticias hispanas del Valle de Hudson
Comments | |
Sorry, there are no comments at this time. |