Atico34 lo confirma: “La inteligencia artificial puede poner en grave riesgo nuestros datos personales”

La protección de datos es uno de los sectores más afectados por una tecnología que sigue a la espera de regulación.

IA

IA

Redacción digital

Madrid - Publicado el - Actualizado

4 min lectura

La inteligencia artificial (IA) está transformando el mundo a una velocidad vertiginosa, pero su desarrollo plantea serios desafíos en términos de privacidad y protección de datos. Desde su capacidad para analizar grandes volúmenes de información personal hasta los riesgos derivados de sesgos en los algoritmos, la IA supone un campo de oportunidades, pero también de peligros. 

Grupo Atico34, consultora de referencia en protección de datos en España, advierte sobre estas implicaciones y destaca la necesidad de un uso responsable y regulado.

El impacto de la IA en la privacidad de los datos

La capacidad de la IA para procesar enormes cantidades de datos personales ha disparado las alarmas entre los expertos en privacidad. La falta de regulación clara sobre el manejo de esta tecnología puede facilitar la exposición de información sensible, desde hábitos de consumo hasta datos de salud.

“Estamos en un momento en el que la inteligencia artificial avanza más rápido que las leyes que deberían regularla”, señala Fernando Tablado, responsable de comunicación de Atico34. “A riesgo de parecer alarmistas lo tenemos que decir claro: sí la IA puede suponer un grave riesgo para la privacidad, seguridad e integridad de nuestros datos personales”.

Entre las amenazas detectadas, destacan la capacidad de los algoritmos para rastrear y predecir comportamientos individuales y los problemas derivados del uso de datos sin el consentimiento adecuado. Según Atico34, esto subraya la necesidad de que las empresas adopten estrategias claras de protección de datos, en línea con el Reglamento General de Protección de Datos (RGPD) y con las futuras normativas que regulen la IA.

Los sesgos: el otro lado oscuro de la IA

Otro de los problemas más graves asociados a la IA son los sesgos en el entrenamiento de algoritmos. Si una inteligencia artificial se alimenta de datos incompletos o parciales, puede producir resultados inexactos o, incluso, incidir en prejuicios o discriminaciones.

En este caso, el problema no iría tanto por el lado de la privacidad de los datos, sino de la integridad de la información personal que manejan las inteligencias artificiales. El uso de sistemas de IA alimentados con datos incorrectos o inexactos podría provocar, por ejemplo, que se discriminase a determinados individuos o colectivos a causa de los sesgos con los que ha sido entrada dicha IA.

“Los sesgos en la IA no solo afectan a la precisión de los resultados, sino que también pueden llevar a prácticas injustas y perjudicar a colectivos vulnerables”, y añade la importancia para las organizaciones de “auditar sus algoritmos regularmente y a garantizar la inclusión de datos representativos y éticos en los procesos de entrenamiento”.

¿Cómo se pretende combatir el impacto de la IA en la protección de datos?

La principal herramienta con la que el Gobierno pretende frenar el uso sin control de la IA es la nueva Ley sobre Inteligencia Artificial, una normativa que, aunque tarde, llega para empezar a regular el uso de esta tecnología.

Entre las principales medidas que contempla la nueva ley de IA se encuentra la obligación de transparencia en los modelos y sistemas de IA, la identificación de aquellos contenidos generados mediante IA o las denominadas ultrafalsificaciones, la prohibición del uso de sistemas biométricos para identificación, la prohibición del uso de la IA con el objetivo de manipular la conducta humana, o nuevas obligaciones de seguridad para los sistemas de alto riesgo.

“En Atico34 estamos muy al tanto de lo que pueda implicar esta normativa, sobre todo porque estamos seguros de que va a sufrir muchas modificaciones y actualizaciones a lo largo del tiempo (...) No hay que olvidar que la inteligencia artificial sigue siendo una tecnología relativamente joven, por tanto la normativa tendrá que ir ajustándose en función de su evolución y de los nuevos escenarios que se presenten”, señalan desde la consultora..

Atico34, comprometida con un enfoque responsable de la IA

Lejos de rechazar los avances tecnológicos, Atico34 apuesta por un enfoque responsable de la IA. La consultora ha liderado iniciativas formativas como cursos de “legal prompting”, un método que busca enseñar a las empresas a utilizar la inteligencia artificial respetando la normativa legal. Estas sesiones, celebradas en ciudades como Madrid, Málaga y Gijón, con una gran acogida por parte de profesionales de sectores tan diversos como el jurídico, el tecnológico y el empresarial.

“Nuestro compromiso es claro: no podemos frenar el avance de la tecnología, pero sí podemos enseñar a utilizarla de manera ética y segura”, apunta Tablado. “La clave está en la educación y en dotar a las empresas de herramientas para garantizar la privacidad de sus usuarios”.

Grupo Atico34 concluye que la inteligencia artificial puede ser una herramienta poderosa para mejorar nuestras vidas, pero solo si se utiliza con precaución y bajo un marco ético. La consultora anima a las organizaciones a trabajar con expertos en protección de datos para garantizar que sus aplicaciones de IA cumplan con los más altos estándares de seguridad y privacidad.

Herrera en COPE

Herrera en COPE

Con Carlos Herrera

Lunes a viernes de 06:00h a 13:00h

Programas

Último boletín

11:00H | 20 DIC 2024 | BOLETÍN