La supervisión humana de los sistemas de inteligencia artificial de alto riesgo. Aportaciones desde el Derecho Internacional Humanitario y el Derecho de la Unión Europea
Palabras clave:
Inteligencia Artificial, Sistema de Armas Autónomos Letales, Supervisión humana, Control Humano Significativo, Derecho Internacional HumanitarioResumen
La automatización de decisiones por parte de sistemas de inteligencia artificial es un fenómeno creciente que abarca todos los ámbitos de la vida. La Comisión Europea, consciente de los riesgos que conlleva el uso de estas tecnologías para los derechos y libertades fundamentales, propone en su "Ley de Inteligencia Artificial" que la supervisión humana sea un requisito obligatorio para el diseño y desarrollo de las mismas. Sin embargo, la supervisión humana tiene un escaso desarrollo en el ámbito normativo europeo. Por ello, proponemos recurrir al concepto de Control Humano Significativo desarrollado en el marco del Derecho Internacional Humanitario, analizando en este articulo las aportaciones estatales, doctrinales y propuestas normativas realizadas por el Grupo de Expertos Gubernamentales de composición abierta sobre los Sistemas de Armas Autónomos Letales. Todas estas aportaciones nos permiten acercarnos desde una perspectiva novedosa al concepto de supervisión humana que propone la Comisión Europea para los sistemas de inteligencia artificial de alto riesgo. Concluimos el articulo con la búsqueda de elementos universalizables en la supervisión humana, que puedan ser aplicables a la automatización de las decisiones, independientemente del ámbito del que se trate.
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2024 Revista Electrónica de Estudios Internacionales
Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.