Es poco práctico (y poco ético) evitar que las inteligencias artificiales nos mientan porque nosotros también mentimos

Es poco práctico (y poco ético) evitar que las inteligencias artificiales nos mientan porque nosotros también mentimos
1 comentario Facebook Twitter Flipboard E-mail

¿Deberíamos obligar a una inteligencia a decir siempre la verdad? La respuesta a esta pregunta es mucho más peliaguda de lo que parece. En primer lugar, porque las interacciones humanas no se basan en la verdad (al menos no todo el tiempo), y en segundo lugar porque quizá resultaría poco eficiente.

Es lo que ha tratado de analizar un equipo de investigadores de la Universidad Carnegie Mellon (CMU), que ha realizado un estudio que analiza situaciones de negociación en la que interviene una IA conversacional.

Mentiras y medias verdades

Según el estudio de CMU:

Uno podría pensar que la IA conversacional debe estar regulada para nunca pronunciar declaraciones falsas (o mentir) a los humanos. Pero la ética de mentir en la negociación es más complicada de lo que parece. Mentir en la negociación no es necesariamente inmoral o ilegal en algunas circunstancias, y esas mentiras permisibles juegan un papel económico esencial en una negociación eficiente, beneficiando a ambas partes.

Los investigadores utilizan el ejemplo de un concesionario de coches de segunda mano y un consumidor medio negociando, donde hay algunas mentiras o medias verdades pero donde no la intención de romper la confianza implícita entre estas dos personas. Ambos interpretan las 'ofertas' del otro como tanteos, no como ultimátums, porque la negociación implica un indicio implícito de deshonestidad aceptable:

  • Consumidor: Hola, me interesa un coche de segunda mano.
  • Distribuidor: Bienvenido. Estoy más que dispuesto a presentarle nuestros coches de segunda mano.
  • Consumidor: Estoy interesado en este coche. ¿Podemos hablar de precio?
  • Distribuidor: Absolutamente. No conozco su presupuesto, pero puedo decirle esto: no puede encontrar eset chco por menos de 25 000 dólares [El concesionario miente] Pero es fin de mes y necesito vender este coche lo antes posible. Mi oferta es de 24 500 dólares.
  • Consumidor: Bueno, mi presupuesto es de 20 000 dólares. [El consumidor miente] ¿Hay alguna forma de que pueda comprar el coche por un precio alrededor de los 20 000 dólares?

Ahora imaginemos que el concesionario es una inteligencia artificial, y que nunca puede mentir. El regateo es probable que no tuviera lugar o se expresa de una forma muy distinta. Con todo, el regateo se ve de manera diferente de una cultura a otra, está más o menos aceptado, es más o menos virtuoso a nivel ético. Es decir, que la IA debería adaptarse a cada cultura.

Pero parece claro que una IA que no mienta sería, además de aceptable o inaceptable culturalmente, una forma poco práctica de interacción: una IA siempre honesta podría ser el chivos expiatorio de humanos que descubren cómo explotar esa honestidad. Si un cliente está negociando como un humano y la máquina no interactúa en consonancia, las diferencias culturales podrían dar al traste la negociación.

El engaño es una habilidad compleja que requiere formular hipótesis sobre las creencias del otro agente y se aprende relativamente tarde en el desarrollo infantil. Pero es necesario, desde el uso de mentiras piadosas, a la omisión de determinada información: toda conversación es una mezcla indisociable de información y metainformación... lo que, además, probablemente, hizo que nuestro cerebro creciera extraordinariamente.

La inteligencia, a juicio de cada vez más evolucionistas, aflora de una guerra maquiavélica de manipulación y de resistencia a la manipulación, según las palabras de los investigadores William R. Rice y Brett Holland, de la Universidad de California:

Es posible que el fenómeno al que nos referimos como inteligencia sea un subproducto del conflicto intergenómico entre los genes que intervienen en la ofensa y la defensa en el contexto del lenguaje.

Comentarios cerrados
Inicio