

La inteligencia artificial ha llegado para hacernos la vida más fácil, pero cuando eres un fiscal federal y decides dejarle los deberes legales a un algoritmo, la jugada puede terminar en un bochorno histórico. Esto es exactamente lo que le ocurrió a Michael J. Romano, un asistente del fiscal en el estado de Oregón, quien pensó que ChatGPT sería el ayudante perfecto para redactar sus exigentes memorandos judiciales.
El juicio, el fiscal y una IA con demasiada imaginación
Todo comenzó durante el caso contra Michael James Bivins, un ex periodista que se declaró culpable de una serie de delitos de odio tras vandalizar varias sinagogas y una mezquita en la ciudad de Portland. El gobierno buscaba una sentencia ejemplar, y a Romano se le ocurrió la brillante idea de utilizar la popular herramienta de inteligencia artificial para argumentar a favor de una condena mucho más dura. El problema radica en que ChatGPT no siempre tiene nociones reales de derecho, pero cuenta con una imaginación verdaderamente envidiable.
La inteligencia artificial le proporcionó tres citas de casos judiciales con nombres rimbombantes y fundamentos que parecían impecables. El fiscal, confiando ciegamente en la tecnología, copió y pegó las referencias en el documento oficial (conocido en el ámbito anglosajón como sentencing memorandum) y lo presentó ante el tribunal con total seguridad.
La pillada del siglo en los tribunales
El castillo de naipes digital no tardó en derrumbarse por su propio peso. Cuando el abogado de la defensa intentó buscar esos casos en las bases de datos oficiales para preparar su respuesta, se topó de frente con un muro insalvable: las citas no existían. La IA había sufrido lo que en el argot tecnológico se conoce como una alucinación, inventándose precedentes legales de la nada absoluta.
- La reacción forzada: Al ser alertado de esta pifia monumental por la defensa, Romano no tuvo más remedio que entonar el mea culpa, autodenunciar su flagrante error ante el tribunal y retirar inmediatamente el documento original.
- El veredicto del magistrado: El juez federal Marco A. Hernandez, encargado del caso, no ocultó su asombro ante la situación, aunque decidió no aplicar sanciones extremas al considerar la naturaleza inusual del fallo.
«El incidente es profundamente preocupante, aunque acepto la explicación de que se trató de un error negligente y no de un intento deliberado de engañar a este tribunal», sentenció el juez Hernandez.
Este extravagante episodio ha servido como un severo aviso a navegantes en toda la comunidad legal. Queda claro que, aunque ChatGPT puede redactar un correo electrónico impecable o sugerirte qué hacer de cenar, todavía le falta aprobar la carrera de derecho y unos cuantos másteres para poder ejercer en los tribunales sin llevar a sus usuarios directos al más absoluto de los ridículos.
