fbpx

Ciberseguridad y la Inteligencia Artificial: Oportunidades y Desafíos Regulatorios en el Comité de Ciberseguridad CCS 

En la sesión del Comité de Ciberseguridad CCS, Catherine Muñoz, Directora en Idonea, abordó los retos y oportunidades regulatorias que enfrenta la inteligencia artificial en su relación con la ciberseguridad, analizando los riesgos asociados y la regulación en Europa y Chile.

Este jueves 3 de octubre, se llevó a cabo una nueva sesión del Comité de Ciberseguridad de la Cámara de Comercio de Santiago (CCS), en la que Catherine Muñoz, Directora en Idónea, expuso sobre los desafíos y oportunidades que presenta la inteligencia artificial (IA) en el contexto de la ciberseguridad. La discusión se centró en los riesgos de ciberataques, ciberespionaje, ciberguerra y ciberterrorismo, así como en la necesidad de una regulación adecuada. 

Al comienzo de la sesión, Ivonne Yáñez Saba, abogada de la Cámara de Comercio de Santiago (CCS), resaltó el trabajo de la CCS en el desarrollo de la nueva plataforma “Agenda Legislativa CCS”, proporcionar acceso directo y actualizado a la legislación vigente en el país. Además, destacó la reciente publicación de una guía práctica para la implementación de la ley de protección de datos personales en el ámbito empresarial, un recurso que facilitará a las organizaciones el cumplimiento de esta normativa clave para la protección de la información y los derechos de los usuarios. 

Catherine Muñoz, Directora en Idónea, fue la encargada de exponer sobre los desafíos regulatorios que enfrenta la IA en este ámbito. Se discutió la necesidad de establecer una regulación que abarque a los distintos actores involucrados en el uso de IA, incluyendo operadores, proveedores, fabricantes, importadores y distribuidores. En Europa, por ejemplo, el reglamento aplicable establece obligaciones específicas para aquellos que desplieguen o comercialicen sistemas de inteligencia artificial, ya sean proveedores establecidos en la Unión Europea o de terceros países cuyos sistemas sean utilizados dentro del territorio europeo. 

Un punto central de la regulación es la clasificación de los sistemas de IA en cuatro niveles de riesgo: riesgo inaceptable (prohibidos), alto riesgo, riesgo limitado y riesgo mínimo o nulo. Los sistemas de alto riesgo, que incluyen aquellos que pueden afectar la seguridad o los derechos fundamentales de las personas, están sujetos a regulaciones estrictas, tales como la gobernanza de datos, mecanismos de transparencia, supervisión humana y medidas de ciberseguridad.  

El documento regulatorio europeo y el proyecto de ley chileno coinciden en que los sistemas de alto riesgo deben contar con un sistema de gestión de riesgos robusto. También deben implementar medidas técnicas y organizativas específicas para garantizar la seguridad desde el diseño, tales como la resistencia a manipulaciones y la capacidad de prevenir ciberataques. El incumplimiento de estas normativas puede llevar a multas severas de hasta 35 millones de euros o el 7% del volumen de negocios global.  

Las prácticas de IA prohibidas incluyen técnicas subliminales, manipulación de vulnerabilidades, categorización biométrica y el uso de reconocimiento facial en tiempo real. Además, tanto la regulación europea como el proyecto de ley chileno establecen excepciones para el uso de IA en seguridad nacional, investigación científica y sistemas de código abierto, siempre que no se utilicen con fines comerciales o en sistemas de alto riesgo. 

Con la creciente adopción de IA en múltiples sectores, el comité concluyó con un espacio de conversación abierta, donde los participantes discutieron la importancia de anticipar y mitigar los riesgos asociados al desarrollo de tecnologías disruptivas como la IA, al tiempo que se aprovechan sus oportunidades en un marco regulatorio adecuado.