


Un abogado cita sentencias "inexistentes" inventadas por ChatGPT y la justicia italiana alerta de las "alucinaciones" de la IA
INTERNACIONALES



El Tribunal de Florencia alertó este 14 de marzo sobre el uso de la inteligencia artificial en los escritos judiciales a raíz del caso de un abogado cuyo equipo había utilizado ChatGPT en la elaboración de un recurso. El uso de esta IA generativa llevó al abogado a presentar un escrito en el que se hacía referencia a sentencias "inexistentes" del Tribunal Supremo italiano. En una sentencia a la que ha accedido 20minutos, la corte de Florencia alerta de las "alucinaciones" de la Inteligencia Artificial, que pueden desembocar en este tipo de errores.

El tribunal italiano aborda el asunto de la siguiente forma: "La IA habría generado entonces resultados erróneos que pueden calificarse como el fenómeno conocido como 'alucinaciones de la inteligencia artificial', que se produce cuando la IA inventa resultados inexistentes que, incluso tras una segunda consulta, son confirmados como verídicos".
El Tribunal de Florencia alertó este 14 de marzo sobre el uso de la inteligencia artificial en los escritos judiciales a raíz del caso de un abogado cuyo equipo había utilizado ChatGPT en la elaboración de un recurso. El uso de esta IA generativa llevó al abogado a presentar un escrito en el que se hacía referencia a sentencias "inexistentes" del Tribunal Supremo italiano. En una sentencia a la que ha accedido 20minutos, la corte de Florencia alerta de las "alucinaciones" de la Inteligencia Artificial, que pueden desembocar en este tipo de errores.
El tribunal italiano aborda el asunto de la siguiente forma: "La IA habría generado entonces resultados erróneos que pueden calificarse como el fenómeno conocido como 'alucinaciones de la inteligencia artificial', que se produce cuando la IA inventa resultados inexistentes que, incluso tras una segunda consulta, son confirmados como verídicos".
El propio abogado, envuelto en un caso de plagio relacionado con la comercialización de unas camisetas, reconoció que un miembro de su despacho había hecho uso de la IA para recabar jurisprudencia, sin contrastar debidamente los resultados ofrecidos por ChatGPT. Además, el letrado, "reconociendo la falta de verificación sobre los datos obtenidos", solicitó la eliminación de las referencias.
Sin embargo, el abogado de la acusación señaló que se había producido un uso abusivo del instrumento procesal y pidió que se impusiera al contrario una multa de 5.000 euros en virtud del artículo 96 del Código Penal Civil italiano.
Fuente: 20 Minutos