Negli ultimi mesi si è parlato molto di come la nuova ondata di chatbot basati sull'intelligenza artificiale, tra cui ChatGPT, potrebbe sconvolgere numerosi settori, inclusa la professione legale.Tuttavia, a giudicare da ciò che è accaduto di recente in un caso a New York City, sembra che potrebbe passare del tempo prima che avvocati altamente qualificati vengano spazzati via dalla tecnologia.Il bizzarro episodio è iniziato quando Roberto Mata ha citato in giudizio una compagnia aerea colombiana dopo aver affermato di aver subito un infortunio durante un volo per New York City.ChatGPT: come utilizzare il chatbot AI che sta cambiando tuttoLa compagnia aerea, Avianca, ha chiesto al giudice di archiviare il caso, quindi il team legale di Mata ha messo insieme una memoria citando una mezza dozzina di casi simili che si erano verificati nel tentativo di convincere il giudice a lasciar procedere il caso del loro cliente, ha riferito il New York Times.Il problema era che gli avvocati della compagnia aerea e il giudice non sono stati in grado di trovare alcuna prova dei casi menzionati nella memoria. Perché? Perché ChatGPT li aveva inventati tutti.Il creatore del brief, Steven A. Schwartz - un avvocato di grande esperienza nello studio Levidow, Levidow & Oberman - ha ammesso in una dichiarazione giurata di aver utilizzato il tanto celebrato chatbot ChatGPT di OpenAI per cercare casi simili, ma ha affermato di aver "rivelato stesso essere inaffidabileâ€.Schwartz ha detto al giudice che non aveva mai utilizzato ChatGPT prima e "quindi non era a conoscenza della possibilità che il suo contenuto potesse essere falso".Durante la creazione del brief, Schwartz ha persino chiesto a ChatGPT di confermare che i casi si sono realmente verificati. Il sempre utile chatbot ha risposto affermativamente, affermando che le informazioni su di loro possono essere trovate su "database legali affidabili".L'avvocato al centro della tempesta ha affermato di "essere molto dispiaciuto" di aver utilizzato ChatGPT per creare il brief e ha insistito sul fatto che "non lo avrebbe mai fatto in futuro senza una verifica assoluta della sua autenticità ".Guardando quello che ha descritto come un documento legale pieno di "sentenze giudiziarie fasulle, con citazioni fasulle e citazioni interne fasulle", e descrivendo la situazione come senza precedenti, il giudice Castel ha ordinato un'udienza per l'inizio del mese prossimo per valutare possibili sanzioni.Sebbene impressionanti nel modo in cui producono testo scorrevole di alta qualità , ChatGPT e altri chatbot simili sono anche noti per inventare cose e presentarle come se fossero reali, qualcosa che Schwartz ha imparato a sue spese. Il fenomeno è noto come "allucinante" ed è una delle maggiori sfide che devono affrontare gli sviluppatori umani dietro i chatbot mentre cercano di appianare questa piega molto problematica.In un altro recente esempio di uno strumento di intelligenza artificiale generativa allucinante, un sindaco australiano ha accusato ChatGPT di aver creato bugie su di lui, incluso il fatto che è stato incarcerato per corruzione mentre lavorava per una banca più di un decennio fa.Il sindaco, Brian Hood, era in realtà un informatore nel caso e non è mai stato accusato di un crimine, quindi era piuttosto sconvolto quando le persone hanno iniziato a informarlo della riscrittura della storia del chatbot.