El debate global sobre las complejidades de la regulación de la IA
2 de junio de 2023

La inteligencia artificial ha pasado de ser una herramienta de apoyo a convertirse en el arma más letal; desde una alternativa para hacer un trabajo impoluto para la universidad hasta bost ladrones que provocan fraudes inaceptables.

Desde la sección de opinión del American Enterprise Institude (AEI) encontramos su pensar a propósito del peligro que tienen las diversas maneras de inteligencia artificial en nuestros días y cómo están regulando todos estos avances desde las grandes dirigencias parlaméntales en distintas zonas del mundo; a pesar de tener diversos puntos de vista. 

Además, la UE también se ha hecho eco de esta realidad y casi aprueba una nueva ley (Ley de Inteligencia Artificial) en la que deja expuesto su punto de vista hacia estos avances tecnológicos: “la OPenAi no puede servir a la UE”, un enfoque basado en el riesgo. Que prescribe obligaciones para los sistemas de IA proporcionales a sus niveles de riesgo: riesgo inaceptable, alto, limitado o mínimo/sin riesgo. 

Las aplicaciones de riesgo inaceptables, como aquellas que utilizan técnicas de manipulación, infieren emociones en la educación o infringen la privacidad de una persona. Estos detonantes tendrías que estar totalmente prohibidos.

Por otro lado, La Casa Blanca de los Estados Unidos, anunció un Plan estratégico Nacional de Investigación y Desarrollo de IA actualizado y a su vez, un informe sobre IA de la Oficina de Tecnología Educativa del Departamento de Educación de EE.UU. Estas puestas en marcha se entiendes además tras un nuevo proceso de Solicitud de Información lanzado por la Oficina de la Casa Blanca para Políticas de Ciencia y Tecnología (OSTP), en busca de información sobre las prioridades nacionales para mitigar los riesgos que suponen las IA.

Dicho esto, como bien dice el AEI, esos enfoques diversos subrayan la complejidad del desafío de la regulación de la IA. Una regulación excesiva podría sofocar la innovación estadounidense y dar ventaja a los desarrollos de china y/u otros países.

Esta supervisión implica numerosos desafíos, dados los diferentes sistemas de IA que ya existen: ChatGPT, IA en vehículos o sistemas de vigilancia e investigación entre otros.

Por suerte o por desgracia, las preguntas son obligadas: ¿Quién está al servicio de la IA? ¿Quién se está aprovechando de las maldades que genera este avance tecnológico único en la historia de la humanidad? ¿estamos ante otro elemento privativo de la libertad? Es sorprendente que las preguntas se resuelven por sí solas. El «control artificial» ha llegado para quedarse.

Publicaciones relacionadas