En este informe, revisaN qué riesgos deben tenerse en cuenta para gobernar efectivamente la IA y se discute cómo el Reglamento europeo puede implementarse de manera efectiva. Para facilitar su análisis, hemos clasificado los riesgos asociados a la IA en adversarios y estructurales. El primer grupo incluye aquellos riesgos en los que existe una relación directa entre el daño y su causante. En concreto, fueron identificados dos potenciales vectores de origen: actores maliciosos con intención de hacer un uso indebido de la IA y los propios sistemas de IA, que pueden perseguir metas de manera autónoma y contraria al interés humano. Esto último es destacado como un vector de riesgo inédito que requerirá de soluciones innovadoras. En cuanto a las amenazas concretas asociadas a este riesgo, se han enfocado en tres: (i) ciberataques y otros accesos no autorizados, (ii) desarrollo de tecnologías estratégicas, y (iii) manipulación de usuarios. Los ciberataques y otros accesos no autorizados consisten en el uso de la IA para ejecutar ofensivas cibernéticas con el objetivo de obtener determinados recursos; el desarrollo de tecnologías estratégicas consiste en el uso indebido de la IA para alcanzar ventajas competitivas en el ámbito militar o civil; y la manipulación de usuarios consiste en el uso de técnicas de persuasión o la presentación de información sesgada o falsa para condicionar el comportamiento humano.
Detalle del Recurso:
Ir a Link
AUTORES:
INSTITUCIONES:
Observatorio de Riesgos Catastróficos Globales ORCG
IDIOMAS:
English
Español
Comentarios: