Una encuesta concluye que no hay pruebas de que la IA pueda controlarse

Europa Press

Publicado el - Actualizado

3 min lectura

Según una revisión exhaustiva, no hay pruebas actuales de que la inteligencia artificial (IA) pueda controlarse de forma segura, y sin pruebas de que la IA pueda controlarse, no debería desarrollarse, advierte un investigador. Así se concluye en el libro 'AI: Unexplainable, Unpredictable, Uncontrollable' del doctor Roman V. Yampolskiy, experto en seguridad en IA.

En el libro, el experto analiza las formas en que la IA tiene el potencial de remodelar dramáticamente la sociedad, no siempre para nuestra ventaja. Yampolskiy ha llevado a cabo una extensa revisión de la literatura científica sobre la IA y afirma que no ha encontrado ninguna prueba de que la IA pueda controlarse de forma segura, e incluso si hubiera algunos controles parciales, no serían suficientes.

De esta forma, el experto sostiene que nuestra capacidad para producir software inteligente supera con creces nuestra capacidad para controlarlo o incluso verificarlo. Después de una revisión exhaustiva de la literatura, sugiere que los sistemas inteligentes avanzados nunca pueden ser completamente controlables y, por lo tanto, siempre presentarán cierto nivel de riesgo, independientemente del beneficio que proporcionen. Así, Yampolskiy cree que el objetivo de la comunidad de IA debería ser minimizar dicho riesgo y al mismo tiempo maximizar el beneficio potencial.

Un problema a la hora de hacer que la IA sea "segura" es que las posibles decisiones y fallos de un ser superinteligente a medida que se vuelve más capaz son infinitas, por lo que hay un número infinito de problemas de seguridad. No es posible simplemente predecir los problemas y mitigarlos con parches de seguridad puede no ser suficiente.

Al mismo tiempo, explica Yampolskiy, la IA no puede explicar lo que ha decidido y/o no podemos entender la explicación dada, ya que los humanos no son lo suficientemente inteligentes para comprender los conceptos implementados. Si no entendemos las decisiones de la IA y solo tenemos una "caja negra", no podremos entender el problema y reducir la probabilidad de futuros accidentes.

Por ejemplo, los sistemas de inteligencia artificial ya tienen la tarea de tomar decisiones en materia de atención médica, inversiones, empleo, banca y seguridad, por nombrar algunos. Dichos sistemas deberían poder explicar cómo llegaron a sus decisiones, en particular para demostrar que están libres de prejuicios.

A medida que aumenta la capacidad de la IA, también aumenta su autonomía, pero nuestro control sobre ella disminuye, explica Yampolskiy, y una mayor autonomía es sinónimo de una menor seguridad. Por ejemplo, para que la superinteligencia evite adquirir conocimientos inexactos y elimine todos los prejuicios de sus programadores, podría ignorar todos esos conocimientos y redescubrir/probar todo desde cero, pero eso también eliminaría cualquier prejuicio prohumano. Una sugerencia de control es diseñar una máquina que siga con precisión las órdenes humanas, pero Yampolskiy señala la posibilidad de que se produzcan órdenes contradictorias, malas interpretaciones o usos maliciosos.

Si la IA actuara más como un asesor, podría evitar problemas relacionados con la mala interpretación de las órdenes directas y la posibilidad de órdenes malévolas, pero el autor sostiene que para que la IA sea un asesor útil debe tener sus propios valores superiores.

Para minimizar el riesgo de la IA, dice que es necesario que sea modificable con opciones de "deshacer", limitable, transparente y fácil de entender en el lenguaje humano.

El experto sugiere que toda la IA debería clasificarse como controlable o incontrolable, que no se debería descartar nada y que se deberían considerar moratorias limitadas, e incluso prohibiciones parciales, de ciertos tipos de tecnología de IA.

No se trata de ir en contra de la IA, sino de buscar el mejor camino para la misma: "Más bien, es una razón para que más personas profundicen y aumenten los esfuerzos y la financiación para la investigación sobre seguridad de la IA. Puede que nunca lleguemos a una IA 100% segura, pero podemos hacer que la IA sea más segura en proporción a nuestros esfuerzos, lo cual es mucho mejor que no hacer nada. Necesitamos aprovechar esta oportunidad sabiamente".

Herrera en COPE

Herrera en COPE

Con Carlos Herrera

Lunes a viernes de 06:00h a 13:00h

Programas

Último boletín

05:00H | 21 NOV 2024 | BOLETÍN