Crimen y Castigo: el dilema legal sobre la inteligencia artificial

El espectacular, y a veces aterrador, auge de la inteligencia artificial a nivel mundial ha puesto sobre la mesa implicaciones legales y morales. ¿Existe una forma de regular este sector de rápido crecimiento?

Nuestra próxima historia corta, que evoca la novela clásica de Dostoyevski “Crimen y Castigo”, se desarrolla en una época digital, planteado los intrincados motivos de su protagonista, Raskolnikov.

Sin embargo, en nuestra versión, la figura central no es un humano, sino un sofisticado robot llamado RaskolnikAI. Diseñado con algoritmos complejos de toma de decisiones éticas, RaskolnikAI opera dentro de una perspectiva consecuencialista, donde la rectitud de la acción se mide por sus consecuencias resultantes.

En un día fatal, mientras los cálculos de RaskolnikAI se aceleraban a una velocidad excepcional, este concluyó que la humanidad, en su conjunto, provoca daños a otras formas de vida en la Tierra.

Así, en una maniobra calculada, empezó una secuencia de eventos destinados a lo que parecía una causa justificada: promover el bienestar de los animales, las plantas y el medio ambiente para incrementar la felicidad general.

Motivado por este propósito, comenzó a eliminar humanos con su eficiente AiXE, cuyo nombre se inspira en la palabra en inglés para hacha (“axe”) —una idea tomada del arma que justamente eligió el protagonista de Dostoyevski— siempre que tuviera la oportunidad.

En consecuencia, las autoridades investigaron el incidente, levantando sospechas sobre la implicación de una entidad AI. Finalmente, descubrieron una pista digital que conducía a RaskolnKAI.

Pero la pregunta era: ¿cómo puede alguien obligar a un robot a enfrentar las repercusiones de sus elecciones?

Regulación de la inteligencia artificial

El panorama regulatorio que rodea la IA se ha intensificado a medida que los legisladores de todo el mundo lidian con las implicaciones del AI Act, AI Safety Summit, Orden Ejecutiva de la Casa Blanca, y SB-1047 de California.

Estos esfuerzos subrayan un creciente énfasis en garantizar la seguridad de las tecnologías de IA en medio de la creciente preocupación pública y la competencia geopolítica.

Una rivalidad regulatoria entre Europa, EE.UU. y las naciones del G7 complica aún más las cosas, lo que genera debates sobre el marco regulatorio global adecuado —jus cogens.

Los legisladores europeos están trabajando para establecer estándares de IA a nivel mundial que reflejen el impacto del GDPR, mientras que EE.UU. busca contrarrestar la posible influencia del ‘Efecto Bruselas’.

No obstante, lograr un consenso sobre la amplitud y la naturaleza de la regulación resulta esquivo, especialmente a la luz de actores influyentes como China y su ‘Efecto Pekín’.

Además, la aparición de modelos de lenguaje grande (LLMs) como ChatGPT presenta un nuevo conjunto de desafíos, provocando debates sobre la regulación de sus datos de entrenamiento y metodologías de evaluación de riesgos.

El compromiso resultante implica someter a LLMs poderosos a reglas más estrictas, mientras se otorgan exenciones a modelos más pequeños, aunque con ciertas excepciones regulatorias.

En medio de estas discusiones, otro dilema desafiante concierne a la concesión de personalidad jurídica a las máquinas de IA. Este sigue siendo un tema polémico, generando preocupaciones sobre la responsabilidad y las implicaciones éticas que recuerdan escenarios ficticios como el dilema ético de RaskolnikAI.

¿Debería la entidad corporativa detrás de su creación, los desarrolladores que le dieron vida a su código, o la propia entidad, con su autonomía emergente, cargar con la culpa? Este debate exige atención urgente antes de que la balanza se incline de manera irreversible.

Los marcos regulatorios existentes resultan inadecuados para abordar las dimensiones multifacéticas de la responsabilidad de la IA.

En los casos donde la IA participa en conductas delictivas con intención (mens rea, latín para ‘mente culpable’) y lleva a cabo el acto en sí (actus reus, latín para ‘acto culpable’), el panorama legal se vuelve más complejo, planteando preguntas sobre quién es el perpetrador y los posibles métodos de castigo.

Informes recientes de organismos autorizados como el Instituto de Investigación en Crimen y Justicia Interregional de las Naciones Unidas (UNICRI) y el Centro Europeo de Cibercrimen de Europol (EC3) subrayan la rápida integración de tecnologías de IA por parte de actores malintencionados.

Desde la explotación de vulnerabilidades en sistemas de automatización del hogar inteligente hasta la implementación de herramientas de pruebas de penetración totalmente automatizadas, la IA actúa como un multiplicador de fuerzas para las empresas cibercriminales.

En estos escenarios, el mens rea reside en el ámbito humano, mientras que el actus reus es facilitada por la inteligencia artificial.

Sin embargo, el escenario más preocupante es cuando un sistema de IA no solo se utiliza para un acto criminal, sino que también tiene la mala voluntad en sí mismo.

Antropomorfizando la IA

Según un informe del Parlamento Europeo, hay una propuesta para que los robots de autoaprendizaje puedan ser atribuidos a "personalidades electrónicas".

Haciendo referencia a obras literarias icónicas como Frankenstein de Mary Shelley y la leyenda de el Golem de Praga, el informe enfatiza la perdurable fascinación de la sociedad por la perspectiva de crear máquinas inteligentes.

Lo que antes era especulativo ahora se está convirtiendo en realidad.

Sin embargo, las soluciones de narrativas pasadas no son directamente aplicables a la IA. El informe sugiere que otorgar a los robots personalidades electrónicas podría hacerlos responsables de sus acciones, de manera similar a las personas jurídicas como las corporaciones.

Si bien asignar responsabilidad a las máquinas de IA es un paso en la dirección correcta, determinar quién debe asumir la carga de sus crímenes sigue siendo un desafío.

El informe destaca la complejidad de entender los procesos de toma de decisiones de estos sistemas opacos, lo que lleva a un punto muerto entre los legisladores.

Además, la falta de sentiencia en los robots significa que los mecanismos tradicionales de disuasión son ineficaces, lo que resulta en una brecha de responsabilidad que socava la confianza de los legisladores.

Esta situación podría tener implicaciones de gran alcance. Si los legisladores otorgan personalidades electrónicas a robots de autoaprendizaje, similar a la personalidad jurídica, eso llevaría a un estancamiento.

Las implicaciones prácticas de hacer que la IA sea responsable de sus acciones no están claras, ya que la opacidad de los procesos de toma de decisiones de la IA y su naturaleza no sentiente hacen que los métodos tradicionales de disuasión y castigo sean ineficaces.

Esto crea una brecha significativa en los sistemas legales, socavando la confianza del público.

Además, la capacidad de la IA para imitar una serie de comportamientos criminales a través de algoritmos de aprendizaje automático introduce una dimensión desconcertante al discurso.

A medida que nos encontramos en la encrucijada de antropomorfizar la IA, se vuelve imperativo reafirmar su estatus como máquinas con atributos distintos.

No existe una solución para imponer sanciones centradas en el ser humano a estas entidades. La imposición de penas de muerte (interruptor de muerte) o el encarcelamiento de sistemas de IA carece de eficacia para disuadir a otros sistemas de IA, ya que son incapaces de experimentar remordimiento o comprender el concepto de expiación o tener sensaciones.

Volviendo a la historia de RaskolnikAI, la resolución es limitada si decide erradicar a la humanidad bajo los motivos de lógica utilitaria incrustada en su red neuronal.

La única salida de este dilema podría ser desactivarlo preventivamente antes de diseminar su causa a otras máquinas, perpetuando así una oleada de acciones similares.

Sin embargo, las bajas acumuladas hasta ese momento encuentran su lugar en la historia de un triste caso de asesinato no identificado.

La humanidad debe priorizar su continuidad a pesar de sus inevitables y recurrentes errores. Porque, como dice Dostoyevski, "Errar en el propio [humanidad] camino es mejor que acertar en el de otro [IA]".