Mecanismos de protección al usuario
“La última decisión en cuestiones que afectan a la vida de las personas debería estar en manos de humanos y no de algoritmos”, subraya. Y es que, ¿cuántas veces hemos aceptado las condiciones de uso de servicios en internet sin ni si quiera leerlas? Pero les damos nuestro consentimiento para recoger datos considerados sensibles. “Así que deben existir mecanismos de regulación que garanticen que no se haga un uso inadecuado de toda esta información”, aclara Tobarra.
Con este espíritu, existe un desarrollo normativo que regula el uso de datos velando por la privacidad. De acuerdo con las Naciones Unidas, en 2018 al menos un 58% de los países había desarrollado normativas orientadas a la privacidad de los datos. Y un 10% se encontraba en desarrollo. Lo que demuestra una preocupación social por estas circunstancias.
En España, tenemos la Ley Protección de Datos (LOPDGDD) y la Agencia Española de Protección de Datos (AEPD), que vela por esta cuestión y genera las herramientas para que las empresas puedan adaptar sus procesos a la normativa vigente. La guía que acaba de ver la luz nace en este contexto: para ayudar y ofrecer procedimientos prácticos en colaboración con grupos expertos en la materia.
El CiberGID, AEPD y otras instituciones de prestigio han colaborado en una guía orientativa para implantar mecanismos de control para auditar la aplicación de algoritmos de Inteligencia Artificial a datos privados. El documento propone una serie de requisitos y de mecanismos que permitirían a un evaluador externo o interno determinar si se está cumpliendo la ley actual de protección de datos al utilizar técnicas de predicción, clasificación o segmentación de forma automática. De manera que se pueda certificar que el tratamiento de los datos es transparente, que se han recogido todos los consentimientos necesarios y que se aplican medidas de seguridad proactivas que garanticen la protección.