La regulación definitiva china para la Inteligencia Artificial (IA) generativa, en vigor desde el 15 de agosto es considerablemente menos restrictiva que un borrador que había circulado anteriormente. Esto demuestra que las autoridades, en particular el regulador chino de Internet, la Administración del Ciberespacio de China (CAC, por sus siglas en inglés), se han mostrado receptivas a los comentarios del público y a las preocupaciones de la industria, en plena carrera por desarrollar los Large Language Models (LLM) más potentes, unos algoritmos capaces de generar textos cercanos al lenguaje humano. Para comprender el presente y el futuro de la gobernanza de la IA en China, es importante tener en cuenta que el filtrado de la información no deseada es una de las principales perspectivas –aunque no la única– a través de la cual Pekín piensa en los algoritmos. En consonancia con una tendencia emergente en la gobernanza digital de China, sus nuevas normativas pretenden inclinar el diseño y el despliegue de la IA hacia la alineación con los intereses nacionales.
Publicidad
Un CAC geopolítico
La CAC ha sido objeto del difícil descubrimiento de que China necesita equilibrar el control y la censura con la libertad para el desarrollo tecnológico. En comparación con las anteriores normas en el ámbito de la IA, ésta es una de las primeras veces que ha ejercido su autoridad en un campo sujeto a una intensa competencia geopolítica. Esto puso el enfoque de la CAC de dar prioridad a la seguridad en abierta contradicción con las ambiciones de innovación y geopolíticas de China. La industria china de la IA, que el gobierno considera de inmensa importancia económica y estratégica, ha entrado en un periodo de intensa incertidumbre. Las medidas estadounidenses de control de las exportaciones a partir de octubre de 2022 han complicado el acceso de las empresas chinas a los chips avanzados necesarios para entrenar a los modelos de IA en la creación de textos, en concreto algunos modelos de GPU vendidos por el gigante estadounidense del diseño de chips Nvidia.
Como resultado, las nuevas normas han sido unas de las regulaciones más significativamente modificadas en la historia de la CAC. Lo más importante es que ahora esta normativa exime del escrutinio a todas las aplicaciones no orientadas al público –como los LLM para diagnóstico médico o automatización de procesos industriales–, incluidas todas las actividades de investigación y desarrollo. También se han suavizado los requisitos específicos. Los expertos nacionales en IA habían pedido que se revisaran a fondo las cláusulas que exigen a las empresas que garanticen que sus datos de aprendizaje son suficientemente precisos y verídicos. Tales garantías serían una tarea ingente dados los miles de millones de datos de entrenamiento utilizados para los grandes modelos lingüísticos. Ahora, estas cláusulas se han suavizado para exigir sólo “medidas suficientes” como garantía.
Domar los algoritmos para modelar la sociedad
Desde la publicación del Plan de Desarrollo de la Inteligencia Artificial de Nueva Generación en 2017, el partido-estado, con Xi Jinping a la cabeza, ha señalado su firme intención tanto de domar como de aprovechar aquellos algoritmos de IA que tienen el poder de moldear la opinión pública en línea. Una forma en que lo ha hecho es a través de acciones reguladoras, sobre todo normas históricas sobre los sistemas de recomendación que representan una de las formas más omnipresentes de IA en la actualidad. En la visión de la CCP, los algoritmos que envían contenidos a los usuarios no deberían utilizarse para enriquecer a las corporaciones, sino para promover valores respaldados oficialmente. Por ejemplo, el CAC quiere que las plataformas de medios sociales utilicen recomendaciones algorítmicas para refutar rumores y promover la “energía positiva”.
Sin embargo, sería un error considerar la censura como el único motor. La campaña de rectificación tecnológica de China ha ilustrado que las autoridades no están interesadas en sostener los modelos de negocio de las plataformas si los costes inminentes para la sociedad son la adicción, el riesgo financiero y los escándalos socioeconómicos. Los reguladores están abordando las preocupaciones sociales y los posibles daños derivados de riesgos como las prescripciones de medicamentos o las estafas generadas por la IA. Algunas normativas contienen cláusulas específicas para prevenir la adicción digital de los menores, mientras que otras exigen modos de accesibilidad especiales para ayudar a la población de avanzada edad, entre otras cosas.
La economía real
En 2000, el presidente estadounidense Bill Clinton comentó célebremente que el intento de China de desarrollar un Internet censurado era “algo así como intentar clavar gelatina en la pared”; los gigantes chinos de Internet procedieron a crear la economía digital más vibrante del mundo, ya que sus plataformas cumplían e incluso ayudaban con los requisitos de censura de Pekín. Las normas de la IA generativa dejan igualmente un margen de flexibilidad para ayudar a la industria a enfrentarse al ChatGPT de OpenAI, incluso cuando esperan que las empresas superen el “problema de la alineación política”: encontrar formas técnicas de garantizar que el menor contenido generado posible viole los estrictos controles de información del Partido Comunista Chino. Pretenden cuadrar el círculo entre los objetivos de seguridad y de desarrollo en torno a la nueva tecnología.
Mientras que la CAC seguirá desconfiando de los chatbots orientados a los internautas, los gobiernos central y locales de China están apoyando un modelo que adopte aplicaciones generativas de IA en áreas importantes para la tan cacareada “economía real” de Xi Jinping, desde la aceleración del descubrimiento de nuevos fármacos y la agilización de las comunicaciones médicas hasta la mejora de la fabricación. En julio, Huawei lanzó Pangu 3.0, un conjunto de modelos preconfigurados que abordan los puntos débiles de la industria, como los fallos en los vagones de mercancías por ferrocarril. La IA generativa tiene buena acogida incluso en la abogacía, para ayudar a los tribunales a automatizar los resúmenes y el archivo de documentos. Por eso la nueva normativa la exime a propósito de su ámbito de aplicación.
En general, las acciones reguladoras de Pekín sobre la IA generativa no parecen suponer un riesgo de acabar con la innovación y amedrentar a las empresas tecnológicas privadas. A pesar de que la CAC está, por su propio mandato, interesada principalmente en limitar la influencia de productos similares a los ChatGPT en la opinión pública, tuvo que dar marcha atrás y suavizar los requisitos para los desarrolladores de la IA generativa. La gobernanza de la IA en China puede seguir sorprendiendo a los observadores, ya que el gobierno intenta encontrar un equilibrio entre la centralización del control y el desarrollo tecnológico.
Este artículo ha sido traducido del inglés de la web de MERICS.