(VIDEO) La Inteligencia Artificial aprende a manipular el comportamiento humano

 243 Total vistas,  1 Vistas hoy

La inteligencia artificial (IA) está aprendiendo más sobre cómo trabajar con (y sobre) humanos.

Un estudio reciente ha demostrado cómo la IA puede aprender a identificar vulnerabilidades en los hábitos y comportamientos humanos y usarlos para influir en la toma de decisiones humanas.

Puede parecer un cliché decir que la IA está transformando todos los aspectos de la forma en que vivimos y trabajamos, pero es cierto.

Varias formas de IA están funcionando en campos tan diversos como el desarrollo de vacunas, la gestión ambiental y la administración de oficinas.

Y aunque la IA no posee inteligencia y emociones similares a las humanas, sus capacidades son poderosas y se desarrollan rápidamente.

No hay necesidad de preocuparse por la toma de posesión de una máquina por el momento, pero este descubrimiento reciente destaca el poder de la IA y subraya la necesidad de una gobernanza adecuada para evitar el mal uso.

Cómo la IA puede aprender a influir en el comportamiento humano

Un equipo de investigadores de Data61 de CSIRO, el brazo digital y de datos de la agencia científica nacional de Australia, ideó un método sistemático para encontrar y explotar vulnerabilidades en las formas en que las personas toman decisiones, utilizando una especie de sistema de inteligencia artificial llamado red neuronal recurrente y refuerzo profundo. aprendizaje.

Para probar su modelo, llevaron a cabo tres experimentos en los que los participantes humanos jugaron contra una computadora.

El primer experimento involucró a los participantes haciendo clic en cuadros de color rojo o azul para ganar una moneda falsa, con la IA aprendiendo los patrones de elección de los participantes y guiándolos hacia una elección específica.

La IA tuvo éxito alrededor del 70 por ciento de las veces.

En el segundo experimento, los participantes debían mirar una pantalla y presionar un botón cuando se les muestra un símbolo en particular (como un triángulo naranja) y no presionarlo cuando se les muestra otro (digamos un círculo azul).

Aquí, la IA se propuso organizar la secuencia de símbolos para que los participantes cometieran más errores y logró un aumento de casi el 25 por ciento.

El tercer experimento consistió en varias rondas en las que un participante se haría pasar por un inversor que da dinero a un fideicomisario (la IA).

La IA luego devolvería una cantidad de dinero al participante, quien luego decidiría cuánto invertir en la siguiente ronda. Este juego se jugó en dos modos diferentes:

En uno, la IA buscaba maximizar la cantidad de dinero con la que acababa, y en el otro, la IA tenía como objetivo una distribución justa del dinero entre ella y el inversor humano.

La IA tuvo mucho éxito en cada modo.

En cada experimento, la máquina aprendió de las respuestas de los participantes e identificó y apuntó vulnerabilidades en la toma de decisiones de las personas.

El resultado final fue el aprendizaje automático para guiar a los participantes hacia acciones específicas.

Qué significa la investigación para el futuro de la IA

La inteligencia artificial y el aprendizaje automático podrían usarse para reconocer las vulnerabilidades de las personas en ciertas situaciones y ayudarlas a evitar las malas decisiones.

El método también se puede utilizar para defenderse de los ataques de influencia.

Se podría enseñar a las máquinas a alertarnos cuando estamos siendo influenciados en línea, por ejemplo, y ayudarnos a dar forma a un comportamiento para disfrazar nuestra vulnerabilidad.

¿Qué sigue?

Como cualquier tecnología, la IA puede usarse para bien o para mal, y la gobernanza adecuada es crucial para garantizar que se implemente de manera responsable.

El año pasado, CSIRO desarrolló un Marco de Ética de IA para el gobierno australiano como un primer paso en este viaje.

La inteligencia artificial y el aprendizaje automático suelen estar muy hambrientos de datos, lo que significa que es crucial garantizar que tengamos sistemas efectivos para el control y el acceso a los datos.

Implementar procesos de consentimiento adecuados y protección de la privacidad cuando se recopilan datos es esencial.

Las organizaciones que utilizan y desarrollan IA deben asegurarse de saber lo que estas tecnologías pueden y no pueden hacer, y ser conscientes de los riesgos y beneficios potenciales.

(Con información de ufo-spain.com)

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *