¡Un brindis por Hojalata!

El episodio 3 de la primera temporada de Creature Commandos presenta un conflicto especialmente interesante desde la óptica del derecho penal y la filosofía moral —por lo menos para los frikis con tiempo y formación legal—: el juicio y condena de G.I. Robot, una máquina de combate programada por el ejército estadounidense para “matar nazis”. En este episodio, después de que “hojalata” fuera reactivado tras varias décadas fuera de servicio, mata a 32 miembros de una organización nazi, incluido su dueño. El autómata es arrestado, y en el juicio el fiscal sostiene que G.I. Robot “se ajusta a la definición de un hombre que da el Estado”, y logra que el tribunal lo condene por homicidio en segundo grado. Pero esta resolución, aunque eficaz como recurso narrativo, es un error jurídico de base y una gran oportunidad perdida para explorar lo que realmente debería haberse juzgado.

Para entender la gravedad de esta decisión, hay que tener claro que G.I. Robot no es una persona en sentido moral. Puede tener apariencia humana, autonomía funcional y hasta capacidad para evaluar escenarios tácticos, pero todo esto ocurre dentro del marco de una programación realizada por humanos. Aunque lo parezca, no posee conciencia, no tiene voluntad propia ni capacidad de discernimiento ético. Carece de lo que llamamos “mens rea” —la intención culpable— que es uno de los pilares fundamentales para la atribución de responsabilidad penal en cualquier sistema de justicia mínimamente garantista. Desde este punto de vista, juzgar a G.I. Robot es como culpar a una pistola por dispararse sola.

Aun así, el tribunal lo declara culpable de homicidio en segundo grado. Esta figura, en el derecho penal estadounidense, se refiere a causar la muerte sin premeditación, pero con una intención de matar o, al menos, una indiferencia temeraria por la vida humana. Es decir, se considera que G.I. Robot no planeó el crimen, pero sí actuó de forma suficientemente autónoma como para que el resultado mortal se le pueda imputar. El paralelismo en el derecho español sería el homicidio doloso, regulado en el artículo 138 del Código Penal, aunque allí sería difícil sostener la imputabilidad si no se reconoce capacidad de comprender y querer el acto.

El problema aquí es que, si aceptamos que el robot no tiene conciencia ni intención, entonces no puede haber delito. Y si, por el contrario, se le reconoce como sujeto moral, entonces el relato debía haber profundizado mucho más en lo que eso significa: ¿tiene derechos? ¿Puede negarse a combatir? ¿Es esclavo, soldado o ciudadano? Reconocer personalidad moral o jurídica a una inteligencia artificial implicaría reformular desde cero no solo el derecho penal, sino también todo el sistema de garantías, deberes y libertades en relación con entes no humanos. No se trata solo de castigar o no a una máquina, sino de establecer cuál sería su estatus dentro de la comunidad política. La serie evita todos estos dilemas profundos y opta por una solución superficial: culpar al ejecutor visible de una tragedia, en lugar de examinar al verdadero responsable.

Porque, en realidad, la pregunta que debía hacerse el tribunal no era si G.I. Robot es culpable, sino quién lo creó, y por qué se permitió que un ente carente de voluntad ejecutara acciones letales sin control humano directo. La responsabilidad está en quienes diseñaron y liberaron el arma, no en el arma misma. Aquí podría haberse planteado una línea argumental basada en la doctrina del command responsibility, que permite atribuir responsabilidad penal a los superiores jerárquicos que ordenan, permiten o no impiden crímenes cometidos por sus subordinados o por mecanismos bajo su control. Castigar a G.I. Robot es desviar el foco ético hacia un chivo expiatorio mecánico, y al hacerlo se absuelve al sistema que lo construyó.

Y ahora es cuando voy a poneros los pelos como escarpias: esta cuestión no es solamente una ficción especulativa, porque en el mundo real, se debate intensamente en el seno de las Naciones Unidas la necesidad de establecer una Convención internacional sobre armas autónomas letales (LAWS – Lethal Autonomous Weapon Systems). Con anterioridad, entre el 13 y el 15 de diciembre de 2021, se celebró en Ginebra una cumbre dentro de la Convención de Ginebra de 1945 destinada a definir límites al uso de robots asesinos, después de que se hubieran empezado a usar sistemas de armamento completamente autónomos en la guerra de Libia en 2020. 125 países participaron, con posiciones que oscilan entre la prohibición total (como Austria) y la regulación moderada (como EE. UU.), mientras que grupos como Amnistía Internacional exigían un tratado jurídicamente vinculante. El secretario general de la ONU, António Guterres, instó a la conferencia a acordar “un plan ambicioso para el futuro que establezca restricciones al uso de ciertos tipos de armas autónomas”. Estas discusiones reflejan el mismo dilema que plantea la serie: determinar quién asume la responsabilidad cuando una máquina actúa sin conciencia humana directa.

El caso de G.I. Robot es una representación clara —aunque distorsionada— de estos escenarios reales. La ficción actúa como espejo, pero en este caso invierte el reflejo: en lugar de señalar al sistema que produce la máquina sin alma, el relato nos presenta un juicio absurdo donde se responsabiliza al instrumento. De este modo, la serie encarna los temores que los tratados internacionales intentan anticipar y prevenir: el riesgo de que el sistema legal, incapaz de adaptarse a los nuevos paradigmas tecnológicos, opte por soluciones simplistas que ignoran las raíces estructurales del problema.

Creature Commandos tenía en sus manos un planteamiento filosófico de primer orden sobre inteligencia artificial, responsabilidad moral y la deshumanización de la guerra. Pero al decidir juzgar y condenar al robot como si fuera un ser humano, James Gunn abandonó esa senda y cayó en un error clásico: suponer que la forma externa de un ente basta para atribuirle culpa. Pero sin voluntad, no hay culpa. Y sin culpa, no puede haber justicia.

Bueno, o puede que sólo fuera una excusa para poner en pantalla a un robot molón matando nazis.

Art imitates life : r/dccomicscirclejerk

Deja un comentario