※ 本文轉寄自 ptt.cc, 文章原始頁面
看板Stock
標題

[新聞] ChatGPT幫律師寫文件 結果一堆假判例

時間
最新2023-06-03 01:48:00
留言270則留言,125人參與討論
推噓99 ( 11516139 )
-------------------------------發文提醒---------------------------------- 1.發文前請先詳閱[新聞]分類發文規範,未依規範發文將受處份。 2.連結過長請善用 https://bit.ly/ 等縮網址服務,連結不能點擊者板規1-2-2處份。 3.心得/評論請盡量充實,心得過短或濫竽充數將以板規 1-2-3、4-4 水桶處份。 4.發文請依照格式文章標明段落,不符合格式者依4-1刪文處分。 ------------------------ 按ctrl+y 可刪除以上內容。 ---------------------- 原文標題: ※請勿刪減原文標題 ChatGPT幫美國律師寫法庭文件 結果發明一堆假判例 原文連結: ※網址超過一行過長請用縮網址工具 https://ynews.page.link/PDVLX 發布時間: ※請以原文網頁/報紙之發布時間為準 2023年5月28日 週日 上午11:50 記者署名: ※原文無記載者得留空 原文內容: 聊天機器人ChatGPT近半年來爆紅,號稱不久後將能取代一堆文組工作;但科技專家也紛紛警告,ChatGPT可能自行編造內容,成為假新聞來源。美國一名律師在準備法庭文件時就讓ChatGPT來寫,結果引用的6個判例裡,沒有一個是真的,在法院紀錄裡根本找不到這些判例。 《紐約時報》27日報導,美國紐約一家律師事務所的律師史瓦茲(Steven A. Schwartz)協助客戶馬塔((Roberto Mata)打官司。馬塔自稱在2019年8月搭乘哥倫比亞航空公司(Avianca)班機從薩爾瓦多飛往紐約時,被空服員推的推車撞到膝蓋而受傷。事隔多時,他才打算控告航空公司。 曼哈頓法院今年3月駁回本案,稱訴訟時效已過。律師史瓦茲於是提交了一份10頁的文件,引用超過6項判例,包含旅客馬丁尼茲( Martinez)控告達美航空、旅客奇赫曼(Zicherman)控告大韓航空、旅客瓦吉斯(Varghese)告中國南方航空等,針對訴訟時效長篇大論了一番。 看起來很厲害,問題是,沒人找的到這份文件裡引用的判例。航空公司的律師找不到,法官本人也一頭霧水。法院訴訟紀錄上會載明判案的法院、法官、判決書編號和日期,照理說不可能找不到;航空公司委任的律師發現,史瓦茲提供的判例看起來似乎是出自聊天機器人的手筆。 史瓦茲本月25日在宣誓書裡承認,他使用了ChatGPT來準備法律文件。已經在紐約執業30年的他對法官表示,他不是故意要欺騙法庭或航空公司,這是他第一次用ChatGPT來準備開庭資料,先前從沒用過,所以不知道ChatGPT寫的東西「可能是假的」。 例如ChatGPT引用的「奇赫曼訴大韓航空」判例,聲稱是美國第11巡迴上訴法院2008年的判決。美國第11巡迴上訴法院的書記官調查後發現,ChatGPT提供的案卷編號確實存在,但是案件本身完全不相關。ChatGPT又用他編造的大韓航空去驗證另一起「瓦吉斯訴中國南方航空」,結果實際上也是沒這回事。最終,ChatGPT引用的判例裡,有6個是假的。 上當的律師史瓦茲對法官表示,他非常後悔依賴ChatGPT來工作。他甚至還有問ChatGPT說,「你提供的瓦吉斯訴中國南方航空是真的案例嗎?」ChatGPT回答「是的」。 但在史瓦茲進一步追問「你的資料來源是哪裡」時,ChatGPT道歉說,「對於先前的混淆,我深感抱歉」,然後提供了一份法律引證。史瓦茲再問,「你提供的其案例是假的嗎?」ChatGPT堅持:「不,我提供的其他案例都是真實的,可以在有公信力的法律資料庫裡找到。」 史瓦茲律師可能找不到那些判例,但本人可能將要成為新的案例。法官已下令6月8日舉行聽證會,針對律師提交這份充滿假判例的法律文件,討論潛在的制裁措施。 心得/評論: ※必需填寫滿30字,無意義者板規處分 有用chat gpt的人應該會有發現 其實搜尋一些消息會是亂湊的 還有些更誇張直接就是掰出來的資訊 如果沒有特別查證會過度相信他的統整資訊 不知道目前這個問題能不能解決 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.216.129.232 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1685272653.A.37D.html

270 則留言

pat1006, 1F
資料庫更新

springman, 2F
寫得很通順,但正確性需要仔細驗證。

ho83leo, 3F
笑了,自己要被告。

mioco, 4F
找不到就自己編一個 被抓包還會先強辯 很人性

pikaaco, 5F
這種敢用chatgpt幫寫也是很勇

Kobe5210, 6F
你已經違規超貼新聞了,下次不用那麼興奮一直貼,

Kobe5210, 7F
把時間留給其他事吧

keyofdejavu, 8F
會狡辯,已經是強AI了,歐印

apple123773, 9F
居然訓練成蘇東坡了 怕

zakijudelo, 10F
不要打醒本板的AI炒股夢喔

JuiFu617, 11F
[新聞] ChatGPT幫律師寫文件 結果一堆假判例

JuiFu617, 12F
估計用免費的gpt3.5

KadourZiani, 13F
沒差吧修改一下參數就好了別來黑啦

xuane, 14F
可憐,這位律師提出前根本沒看過書狀吧

rrroooqqq, 15F
這問題要解決不難吧,只要有專門針對法律去訓練,

rrroooqqq, 16F
應該就可以改善很多了

lianli1024, 17F
用完gpt 在用google選我正解

permanent27, 18F
之前查專利號也是隨便給,還是要自己檢查過

ikachann, 19F
GPT真的很有自信把一件胡扯的事情說成像真的一樣

JuiFu617, 20F
這律師通用模型拿去搞專業領域好像誤會了什麼

JuiFu617, 21F
跟人一樣不懂的也會胡說八道,但是chatgpt比較適合

JuiFu617, 22F
作文整合,不適合直接搜索結果

Kydland, 23F
為什麼我覺得是這位律師亂掰亂寫一通 然後推給

Kydland, 24F
是chatGPT的錯?

sazabijiang, 25F
我確定chatGPT會亂掰內容。我虛構兩個人名,問它

sazabijiang, 26F
誰比較厲害,他還是煞有其事地完成分析。

JuiFu617, 27F
美國法律很重視判例,但是判例其實到各大法律數據庫

JuiFu617, 28F
搜索會比較完善吧

pponywong, 29F
chatGPT 本來就是文本產生器 你怎麼會認為是真的 XD

dogfacehoho, 30F
寫的很真但內容不實XD

jainyoyo, 31F
就網路資訊很多是不正確

NotGiveUp, 32F
靠chatGPT寫完,自己都不用驗證內容嗎......

nodnarb1027, 33F
文組浮木

JuiFu617, 34F
這麼懶的律師文件生成後判例不去餵狗,你覺得他會

JuiFu617, 35F
用付費gpt4嗎?

steak5566, 36F
文組:看吧 我們還是很重要

ltflame, 37F
沒有搜尋功能當然只能用掰的,用錯工具怪工具喔

dos01, 38F
之前就說過好幾次了 這東西就尬聊APP 他會為了跟你

dos01, 39F
尬聊胡扯

ice84man, 272F
ChatGTP是文字接龍,不是Google

a77942002, 273F
這種AI就是將大量的隨機可能性收束到“趨近”模型跟

a77942002, 274F
想要的結果(輸入值) 不要拿來做需要高度正確的事~

ecwecwtw, 275F
GPT一句抱歉就沒事了,但使用者要自行承擔造假後果

truevines, 276F
這個包是要OpenAI賠,還是簽名的律師賠?

bettybuy, 277F
GPT真的很會唬爛,唬爛王

zephyr105, 278F
看來又是一場大詐騙了

champion0922, 279F
褻瀆司法的律師 關一關

lancelot123, 280F
我用bing GPT在引用資料來源上至少好得多,點開網址

lancelot123, 281F
都是正確的,只是編文章的內容相較之下弱得多,沒辦

lancelot123, 282F
法長篇大論

chenpfu0394, 283F
真“雲“端軟體

ninggo, 284F
語言模型ai不是專業領域的通用ai..