圖片來源:
U.S. Air Force
根據《紐約時報》(The New York Time)的報導,一名紐約州律師Steven Schwartz在替客戶撰寫案件摘要時,利用ChatGPT來協助整理相關的有利判決,結果被發現這些判決都是ChatGPT杜撰的,面對此一前所未有的事件,法官決定舉行聽證會來討論可能的處罰條款。
控方Roberto Mata是在2019年搭乘哥倫比亞航空(Avianca)公司的飛機,在機上因被飛機餐車撞到而受傷,並委託Schwartz提告,而Avianca則以該案件已過了時效性而要求撤告,擔任Mata律師的Schwartz在撰寫案件摘要時,利用ChatGPT來蒐集其它航空公司的類似案件,Schwartz便於案件摘用中提供了6個來自ChatGPT的案例,以支持其仍具時效的論點。
然而,Avianca的律師群怎樣都找不到這些案例,更遑論案例中的意見。
Schwartz之後坦承他諮詢了ChatGPT,但過去他從未使用過ChatGPT,並不知道它所提供的內容可能是假的,更何況他還向ChatGPT確認過,ChatGPT告訴他這些案件都是真實的。Schwartz並向法院提交了他與ChatGPT的對話過程作為佐證。
其實不僅是ChatGPT,Google所發表的Bard也被發現會提供杜撰或錯誤的答案,意謂著目前的聊天機器人並沒有想像中的可靠,已執業三十多年的Schwartz可能沒想過,自己會是以這樣的烏龍事件敗在人工智慧產品手上。
熱門新聞
2024-12-02
2024-11-29
2024-12-02
2024-11-30
2024-12-02
Advertisement