Levart_Photographer on unsplash
為防止生成性AI幻覺(hallucination)引發混亂,美國德州一名法官要求,在其審理的所有法律文件若是由ChatGPT草擬或撰寫,必須宣告且經過人類審查準確性。
著名法律學者Eugene Volokh在其部格格《Volokh Conspiracy》報導,德州聯邦法官Brantley Starr本周公告名為《關於生成性人工智慧的必要證明》(Mandatory Certification Regarding Generative Artificial Intelligence)的命令,要求任何律師在其法庭中提出的文件,必須具備證明,其文件若非完全未經生成性人工智慧(ChatGPT、Harvey.AI或Google Bard或任何生成性AI)草擬,或是生成性AI草擬的語言,必須經過人類利用印刷資料或傳統法律資料庫檢查精確性。
法官指出,雖然AI平台在草擬文件、尋找答案及提供錯誤修正、提供口頭辯論問答方面很強大,但卻不得用於案件摘要,原因是目前AI容易出現幻覺和偏見。在AI幻覺方面,AI可能憑空杜撰內容,包括引用說話或來源。此外,不像人類律師宣誓摒除個人偏見,生成性AI是人類編碼產品,沒有宣誓、對客戶、法治及憲法沒有忠誠,也沒有正義、榮耀、義務的原則,因此也不會有可信賴度(reliability)的保證。
為此,Starr法官命令,任何律師在庭上交付的文件不論是否經生成性AI草擬任何一部份,都需提交簽章表格作為證明。
這也呼應了近日發生AI胡謅法律文件的事。上周紐約州一名律師Steven Schwartz在ChatGPT幫忙「補充法律研究」下,完成一份案件摘要文件。ChatGPT提供了6個判例全部都是憑空捏造的,以致於對方律師完全找不到案例。Schwartz坦言從未使用過ChatGPT,並不知道它所提供的內容可能是假的或錯的。
不過也有法官傾向相信AI。哥倫比亞一名法官今年在審理一宗官司時,採信ChatGPT提供的答案,連同其個人想法,加入法院文件作為判決基礎。
熱門新聞
2024-10-05
2024-10-07
2024-10-07
2024-10-07
2024-10-07
2024-10-07
2024-10-07