Somos más propensos a aprovecharnos de una inteligencia artificial benévola que de su equivalente humano

Somos más propensos a aprovecharnos de una inteligencia artificial benévola que de su equivalente humano
Sin comentarios Facebook Twitter Flipboard E-mail

Los seres humanos somos sociables por naturaleza. No tendemos a explorar a los demás. Experimentamos empatía. Nos complace que haya justicia. Sin embargo, quizás estas tendencias no son tan claras cuando se trata de una inteligencia artificial.

Es lo que sugiere un nuevo estudio que ha explorado cómo los humanos interactuarán con las máquinas en situaciones sociales futuras, como los coches autónomos, pidiendo a los participantes que jugaran una serie de juegos de dilemas sociales.

Dilemas sociales

Los participantes de este estudio se enfrentaron a cuatro formas diferentes de dilema social, cada una de las cuales les presentaba la posibilidad de elegir entre la búsqueda de intereses personales o mutuos, pero con distintos niveles de riesgo y compromiso. A continuación, se comparó lo que los participantes eligieron hacer al interactuar con una IA o con personas anónimas.

El coautor del estudio Jurgis Karpus, un teórico de los juegos conductuales y filósofo de la Universidad Ludwig Maximilian de Munich, señala que encontraron un patrón consistente:

La gente esperaba que los agentes artificiales fueran tan cooperativos como los demás humanos. Sin embargo, no devolvieron tanto su benevolencia y explotaron a la IA más que a los humanos.

Uno de los experimentos usados en el estudio fue el dilema del prisionero. En el juego, los jugadores acusados ​​de un delito deben elegir entre la cooperación en beneficio mutuo o la traición por interés propio. Si bien los participantes aceptaron el riesgo tanto con los humanos como con la inteligencia artificial, traicionaron la confianza de la IA con mucha más frecuencia, a la vez que confiaban en que sus socios algorítmicos serían tan cooperativos como los humanos.

Los hallazgos sugieren que los beneficios de las máquinas inteligentes podrían verse restringidos por la explotación humana. Tomemos el ejemplo de los coches autónomos que intenta incorporarse a una carretera desde una carretera lateral, y trata de que otros conductores humanos le cedan el paso. El coche autónomo tratá de ser educado, seguir las normas, pero los conductores humanos serán más egoístas y no permitirán su incorporación con facilidad. ¿Debería el coche autónomo ser menos cooperativo y comportarse de forma más agresiva para resultar más útil a los humanos (en este caso los que viajan en el coche autónomo)?

Comentarios cerrados
Inicio