INTELIGENCIA ARTIFICIAL

Experta subraya que hay que aprender a convivir con la IA, pero con normas éticas

La inteligencia artificial (IA) ya ha revolucionado muchas de las rutinas a las que las personas están acostumbradas y en el futuro su impacto será mayor, por lo que "hay que aprender a convivir" con esta tecnología y "poner ciertas normas éticas para que esa convivencia sea sana".

Agencia EFE

Publicado el - Actualizado

3 min lectura

La inteligencia artificial (IA) ya ha revolucionado muchas de las rutinas a las que las personas están acostumbradas y en el futuro su impacto será mayor, por lo que "hay que aprender a convivir" con esta tecnología y "poner ciertas normas éticas para que esa convivencia sea sana".

Así lo ha considerado, en declaraciones a los periodistas, la presidenta y fundadora del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (Odiseia), Idoia Salazar, que este jueves ha intervenido en el curso de verano que organiza la Guardia Civil en la Universidad de La Rioja sobre seguridad e inteligencia artificial.

La sociedad "ya está siendo consciente" del impacto de la IA a través del "chatgpt", según Salazar, quien cree que "se está intentando desarrollar una normativa" para que "empresas e instituciones puedan seguir usando esta tecnología de una forma ética y sana" y uno de los principales avances es el borrador del reglamento sobre esta materia que ultima la Comisión Europea.

El miedo a la IA "sin duda está justificado", ha considerado, "pero por el desconocimiento sobre el impacto de esta tecnología" y porque "estamos llenos de prejuicios derivados de la ciencia ficción", por lo que "hay muchas personas que se sienten asustadas, con razón, porque la sociedad no está preparada y educada para poder asumir todo ese impacto".

Ha abogado por "un esfuerzo común de los centros educativos, de las universidades, de los colegios y de las instituciones para intentar educar a la sociedad" y, así, "conocer qué es lo que realmente nos puede afectar negativamente y cómo aprender a utilizar correctamente esta tecnología y saber cuáles son sus riesgos reales".

Cree que se puede empezar a enseñar a los niños y a las personas mayores de qué manera incide sobre ellos el uso de los datos.

De hecho, ha afirmado, "existe una carta de derechos digitales en España, pero muy pocos sabemos cómo llevarla a cabo" y "eso es una labor de educación, que se tiene que hacer con un impulso por parte de las administraciones".

"Hay que dejar de hablar de la IA como si fuera un ente autónomo porque quien toma las decisiones, al final, son los humanos", ha asegurado, por lo que "hay que tener cuidado con los datos de entrenamiento del algoritmo y hacer una supervisión durante todo el proceso de entrenamiento del diseño".

LA IA LO CAMBIARÁ TODO

La IA "lo va a cambiar todo en unas décadas", ha afirmado el director del Centro de Análisis y Prospectiva de la Guardia Civil, Enrique Ávila, que también ha participado en el curso.

Ha explicado que la IA permite a las fuerzas de seguridad ser más eficientes en sus procesos, pero "hacia afuera, en un trabajo predictivo, hay que tener mucho cuidado y emplearla con criterios muy firmes porque las decisiones deben seguir siendo humanas".

Ha reconocido que "este camino de la IA, que ahora estamos explorando, conlleva riesgos y amenazas, como cualquier otro aspecto de la vida, sobre todo si hablamos de tecnología" y "esta no sabemos a dónde nos va a llevar". EFE.

ep/alg/pss

(foto)

Herrera en COPE

Herrera en COPE

Con Carlos Herrera

Lunes a viernes de 06:00h a 13:00h

Programas

Último boletín

17:00H | 23 ABR 2025 | BOLETÍN