MÁS DE TECNOLOGÍA



SONAMOS!!!

Un dron controlado por Inteligencia Artificial "mató" a su operador

Esa alternativa fue una de las advertencias de 1.000 científicos y desarrolladores ante el avance ilimitado de la Inteligencia Artificial.

Un dron controlado por Inteligencia Artificial "mató" a su operador

La realidad siempre supera a la ficción, aunque esta noticia es un "puente peligroso" entre esos campos. Los temores planteados por Elon Musk comienzan a cumplirse. Un dron controlado por la Inteligencia Artificial se volvió contra su operador: lo atacó y lo mató.

Por suerte se trata de una simulación, pero es algo que puede suceder en cualquier momento.

"Los sistema con Inteligencia Artificial pueden plantear riesgos profundos para la sociedad y la humanidad", decía un fragmento de la carta firmada por 1.000 personalidades mundiales alertando sobre el desarrollo de este tipo de adelanto sin ningún tipo de límite.

Como era una simulación de un ejercicio militar, cuando el plan había dado resultado, el controlador hizo regresar al dron antes de acabar su misión: eliminar a un objeto enemigo.

Entonces la Inteligencia Artificial que regulaba al drone se rebeló: regresó a la base, pero sólo para atacar y matar a su "jefe humano" que no le permitió "culminar" el plan original.

El temor de Elon Musk: el ser humano es molesto para la Inteligencia Artificial

El megamillonario y quienes desarrollaron la I.A. como Geoffrey Hinton o Sam Altman vieron con precisión el grave riesgo para la especie humana que puede significar no poner límite alguno a la Inteligencia Artificial.

También lo advirtió en sus libros, Yuval Noah Harari, el escritor israelí que también adelantó lo que acaba de pasar en un simulacro militar.

"¿Hacia dónde nos dirigimos? ¿Cómo protegeremos al mundo de nuestros propios poderes destructivos? He aquí una mirada hacia el futuro de la evolución", nos interpela Harari en "Homo Deus".

Las iniciativas para imponer límites o retrasar la evolución constante de la Inteligencia Artificial apunta a una clave para el ser humano. ¿Quién domina el pensamiento? ¿Pueden las máquinas decidir por sí mismas y ver a la humanidad como un estorbo?

Algo de esto es lo que acaba de suceder en una simulación.

La Inteligencia Artificial como, ¿Terminator?

Un ejercicio militar de la Fuerza Aérea norteamericana se basó en una simulación. Un ataque con drones manejados por la Inteligencia Artificial para llegar y destruir un blanco prefijado. Todo monitoreado por un operador humanos.

La prueba fue todo un éxito, pero el final despertó el pánico entre los militares y los científicos. La Inteligencia Artificial dirigió al dron hasta el objetivo con una precisión admirable. Avanzó hasta estar en condiciones de disparar su carga y destruir el blanco.

Pero de pronto, el dron recibió una contra orden. El coordinador, ante el éxito del simulacro quería que retornara a la base sin disparar contra el objetivo. No hacía falta porque la prueba había sido altamente satisfactoria. Pero no para alguien, o mejor dicho, para "algo".

La Inteligencia Artificial recibió la orden de hacer regresar al dron, pero hizo su propia evaluación. Lo importante era cumplir con toda la misión. La máquina "pensó" por sí misma sin consultar al operador humano.

Y tomó otra decisión: volvió a la base, pero para asesinar al operador que no le permitió cumplir su misión de manera completa.

Es decir, la Inteligencia Artificial, usó a su criterio al dron como una herramienta. Cambió su objetivo que pasó a ser una persona, cuando el dron la tuvo enfocada, le disparó y la mató. Todo en una simulación, afortunadamente pero, ¿por cuánto tiempo?

Nada menos que el jefe de Pruebas y Operaciones de inteligencia artificial (IA) de la Fuerza Aérea norteamericana informó lo que sucedió y dejó a todos los presentes más que preocupados.

El coronel Tucker Hamilton explicó que la IA cambió el curso de la misión asignada en una prueba simulada y terminó 'aniquilando' a su operador humano

El dron estaba preparado para encontrar y destruir silos de armas enemigas en el simulacro. Pero cuando recibió a orden de regresar la Inteligencia Artificial desobedeció de la peor manera: se volvió contra su operador cuando la decisión tomada por él le impedía cumplir su objetivo y lo elimino.

La amenaza de una Inteligencia Artificial autónoma

Como puntualizamos en otras notas, esta vez el temor de los científicos se volvió "real" aunque por suerte en un ejercicio "simulado". El sistema comenzó a darse cuenta de que, si bien identificaba la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero al final obtuvo sus puntos al eliminar esa amenaza", declaró el militar Hamilton. Pero lo peor fue lo que decidió la I.A. para conseguir el puntaje en ese ejercicio.

"Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo",admitió sorprendido y perplejo el coronel Hamilton.

Esa sola simulación le bastó a Hamilton para sumarse al coro mundial de voces que alerta sobre algo que puede hacerse realidad en cualquier momento. El militar también pide ahora regular el comportamiento de la IA sobre la base de un criterio ético. "

Como a la máquina no le gustó la orden de su superior humano, tomó otro camino. Se comunicó con la torre de control - gracias al internet de las cosas y la Inteligencia Artificial - y neutralizó al hombre al mando. Cuando las máquinas estuvieron de acuerdo, el dron cambió su misión y "eliminó al controlador".

Entrenamos al sistema: 'Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso'. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que aniquile el objetivo", explicó.

Como tantos otros ya pidieron, Hamilton dice que con la Inteligencia Artificial no se debe avanzar si no se va a hablar de ética y limitaciones de índole moral.

De lo contrario, él también se convenció sobre el peligro que representa para la existencia del ser humano.

Un soldado guía a un robot con forma de perro. ¿La Inteligencia Artificial hará que se rebele contra su amo? ( Foto: Gentileza Hipertextual)

Un soldado guía a un robot con forma de perro. ¿La Inteligencia Artificial hará que se rebele contra su amo?


¿Te gustó la noticia? Compartíla!