Tras muchos meses de intensas negociaciones, finalmente se alcanzó un acuerdo provisional sobre la Ley de Inteligencia Artificial (IA) a finales de 2023. Esto convierte a la UE en la primera jurisdicción con una legislación exhaustiva en materia de IA, ya que otros países aún están en el proceso de regularla. Sus esfuerzos se ven cada vez más desafiados por un giro en el discurso en torno a la IA, que también afecta a Europa a pesar de haber tomado la delantera.
Publicidad
El temor a que una superinteligencia renegada se apodere del mundo (a lo Skynet de Terminator) influye cada vez más en la percepción de la IA entre los responsables de la toma de decisiones. El drama en torno a la contratación-despido-recontratación del consejero delegado de OpenAI, Sam Altman, puso de relieve la consolidación de este cambio radical, revelando una profunda división en la comunidad de la IA entre las facciones “doomer” y “boomer”.
Sin embargo, la debacle de OpenAI no fue un incidente aislado exclusivo de Silicon Valley. Incluso la presidenta de la Comisión Europea, Úrsula von der Leyen, aludió al riesgo de extinción humana a través de la IA en su discurso sobre el estado de la Unión de 2023 (que afortunadamente no aparece en la Ley de IA), por no hablar de la Cumbre de Seguridad de la IA del Reino Unido, que también estuvo rodeada de alarmismo sobre los riesgos existenciales.
Introducción al ‘largoplacismo’
Para cualquier país que aún esté trabajando en la regulación, es importante saber que no se trata de preocupaciones marginales, sino de los ecos de una filosofía cada vez más arraigada en la comunidad de la IA. Esta filosofía, a menudo denominada “largoplacismo” (y estrechamente relacionada con el altruismo eficaz), sostiene que la prioridad absoluta de los decisores políticos actuales debería ser incidir positivamente en el futuro a largo plazo.
Los largoplacistas prefieren debatir sobre una hipotética extinción humana en el futuro, en lugar de regular los sistemas de IA que afectan a nuestra vida cotidiana actual, como las herramientas de IA utilizadas por las administraciones públicas, en los sistemas sanitarios o en los procesos de contratación. En resumen, quieren lo contrario de una Ley de IA que establezca normas concretas que puedan aplicarse ahora.
Aunque ni el pensamiento a largo plazo ni la prevención de riesgos son intrínsecamente perjudiciales, la forma en que los partidarios del largo plazo traducen su creencia básica en propuestas políticas es sistemáticamente defectuosa y podría inducir a error y a disonancias entre los responsables políticos de otras jurisdicciones.
Normalmente, una buena política se basa en demostrar que una medida propuesta es preferible a la “contrafactual”, un escenario en el que no se adopta ninguna nueva política. Para tomar decisiones, los responsables políticos tienen que identificar y medir las repercusiones positivas y negativas de la política propuesta y de las medidas alternativas a lo largo del tiempo. Inevitablemente, tienen que “descontar” las consecuencias futuras realizando una evaluación del impacto coste-beneficio: el descuento evita que un euro de impacto hoy se equipare a un euro en el futuro, reflejando así las tasas de inflación y los costes de oportunidad.
Pero este descuento también refleja el riesgo de que el impacto futuro no se materialice en absoluto. Esta aproximación permite sopesar objetivos contrapuestos al especificar la probabilidad de que se produzcan los distintos escenarios y la magnitud de las repercusiones positivas o negativas. Esto ilustra la complejidad inherente en la toma de decisiones. Es en este detalle metodológico de la formulación de políticas donde los partidarios del enfoque a largo plazo se equivocan.
Básicamente, afirman que el tipo de descuento debería ser cero. Dado que su objetivo es maximizar el impacto en las vidas de las personas del futuro lejano, sostienen que las personas de hoy no tienen un derecho especial sobre la política. En todo caso, debería darse prioridad a las poblaciones futuras, ya que son mayoría (hipotética) y esto es lo que debería determinar las acciones de hoy.
Una aproximación equivocada
Por consiguiente, el enfoque a largo plazo exige que los responsables políticos den prioridad a evitar el peor de los escenarios. En un futuro muy lejano, la extinción humana causada por una superinteligencia malévola es un excelente candidato para ese escenario.
Pero, ¿es el único? ¿Es realmente una superinteligencia descontrolada el escenario más probable? ¿Debemos, por tanto, descartar otras vías de actuación que hoy pueden tener sentido para nosotros?
El hecho de que los partidarios de la visión a largo plazo se centren exclusivamente en un riesgo relacionado con la superinteligencia (que puede que nunca ocurra) en un futuro lejano conduce a dos dramáticos descuidos en el pensamiento a largo plazo (al tiempo que nos distrae de pensar en los impactos negativos que ya son relevantes hoy en día, pero esa es otra historia para otro día).
En primer lugar, los partidarios del largo plazo pasan por alto otras amenazas existenciales, posiblemente más tangibles, como el cambio climático, otra pandemia o incluso un conflicto impulsado por la desinformación. Irónicamente para el “largoplacismo”, la IA podría incluso ser parte de la solución a estas amenazas. Esta tecnología puede ayudar a reducir las emisiones de carbono, controlar las enfermedades infecciosas, impulsar los avances científicos en medicina y física y moderar los contenidos en línea.
Sin embargo, los defensores de la IA a largo plazo no tienen en cuenta estos efectos positivos ni su potencial para mitigar otros riesgos existenciales. Ignoran el hecho de que la IA puede conducir a una evaluación de impacto favorable en términos de evitar la extinción humana por otros medios.
Esto nos lleva al segundo defecto del razonamiento a largo plazo: la incapacidad de sopesar objetivos contrapuestos porque solo hay una prioridad, a saber, la supervivencia del homo sapiens.
Sin embargo, la mera supervivencia podría no ser suficiente para las poblaciones futuras y tampoco lo es para la población actual. La educación, las oportunidades de empleo significativas, el bienestar y los ecosistemas sanos son algunos de los criterios adicionales que podríamos considerar tanto para el presente como para el futuro. Por eso, varios países del mundo se han comprometido a preservar los llamados “cuatro capitales” (financiero y físico, humano, social y natural) como objetivos de sus políticas a largo plazo.
Una vez más, la IA puede ser un elemento esencial en la búsqueda de esta forma de contrato social intergeneracional. Detener ahora el desarrollo de la IA o condicionarlo a un riesgo a muy largo plazo (y, de nuevo, no definitivo) puede impedir que nuestras sociedades aprovechen estos beneficios aquí y ahora.
La elaboración de políticas consiste en encontrar soluciones de compromiso, tanto entre los distintos efectos como entre las distintas líneas de actuación a lo largo del tiempo. Por eso, los responsables políticos necesitan asesoramiento adecuado sobre las repercusiones reales y realistas de la IA –tal como se regulan ahora en la Ley de IA– en lugar de aportaciones incompletas y metodológicamente erróneas. Debe haber espacio para el largo plazo, pero no para la miopía y, desde luego, no para visiones demasiado estrechas del futuro.
Afortunadamente, parece que los reguladores de la UE no se han dejado influir por el alarmismo que rodea la redacción de la Ley de IA. Si el texto final mantiene el enfoque y el equilibrio actuales, la Ley de la IA podría convertirse en una fuente de inspiración para un enfoque más significativo y coherente para su gobernanza mundial.
Y ese es un resultado muy bueno, tanto para nosotros, que vivimos aquí y ahora, como para los que aún están por llegar.
Este artículo ha sido traducido del inglés del Centre for European Policy Studies (CEPS).