Compartir
Publicidad

La ética de las futuras máquinas de guerra autónomas

La ética de las futuras máquinas de guerra autónomas
0 Comentarios
Publicidad
Publicidad

El ámbito más inquietante donde las máquinas pueden tomar decisiones autónomas es el militar. Por el momento, ya son factibles máquinas capaces de matar a personas que se controlan por ordenador, las llamadas LAR (Robots Autónomos Letales, por sus siglas en inglés).

Si bien los gobiernos con capacidad para producir LAR han señalado que no contemplan su uso durante conflictos armados u otras situaciones, no estamos seguros de que esta situación continúe controlada.

Ética para la máquina

Por esa razón, en 2008, la Marina estadounidense ya encargó al Grupo de Ética y Ciencias Emergentes de la Universidad Politécnica de California la creación de un informe que revisara las cuestiones éticas que acarrean los LAR. El informe presenta también los dos enfoques posibles para la construcción de robots autónomos éticos: de arriba abajo y de abajo arriba.

En el enfoque de arriba abajo, todas las reglas que gobiernan las decisiones del sistema están programadas con antelación, y el robot simplemente obedece las reglas “sin cambios ni flexibilidad”. El mayor problema de este enfoque es que no resulta nada sencillo de prever todas las circunstancias.

Toy Robot 942363 960 720

En el enfoque abajo arriba, se programa al robot con unas pocas reglas rudimentarias y se le permite interactuar con el mundo. Utilizando técnicas de aprendizaje automático, desarrollará su propio código moral, adaptándolo a nuevas situaciones a medida que aparezcan.

En teoría, a cuantos más dilemas haga frente el sistema, más exhaustivos serán sus juicios morales. Pero el enfoque de abajo arriba ofrece problemas incluso más espinosos, como objeta Nicholas Carr en su libro Atrapados:

En primer lugar, es impracticable; todavía tenemos que inventar algoritmos de aprendizaje de máquinas lo suficientemente sutiles y sólidos para la toma de decisiones morales. En segundo lugar, no hay espacio para el ensayo y error en situaciones de vida o muerte; el enfoque mismo sería inmoral. Por último, no hay garantía de que moralidad que desarrolla un ordenador refleje o guarde armonía con la moralidad humana.

Si bien todos los aparatos actúan todavía bajo supervisión humana, robots como el SGR-A1, fabricado por Samsung Techwin, posee algoritmos capaces de distinguir entre militares y civiles desarmados y tomar medidas en función de esa identificación: por ejemplo, disparando balas de goma. El robot también puede iluminar a los intrusos o solicitar una contraseña para verificar que no se trata de soldados amigos desorientados. Actualmente, en la frontera entre las dos Coreas, la del Sur ya está empleando estas unidades semiautónomas de vigilancia.

Temas
Publicidad
Publicidad
Publicidad
Inicio
Inicio

Ver más artículos