※ 本文轉寄自 ptt.cc, 文章原始頁面
看板Soft_Job
標題

Fw: [新聞] 未來將有AI法官? 法界研究人工智慧導入

時間
最新2020-10-19 23:49:00
留言54則留言,33人參與討論
推噓17 ( 19233 )
※ [本文轉錄自 Lawyer 看板 #1VNVm0C6 ] 作者: chuo11 (KKK) 看板: Lawyer 標題: [新聞] 未來將有AI法官? 法界研究人工智慧導入 時間: Sun Sep 13 19:01:17 2020 未來將有AI法官? 法界研究人工智慧導入司法 https://news.ltn.com.tw/news/society/breakingnews/2946530 〔記者吳政峰/台北報導〕司法官學院15日舉辦「2019年『人工智慧對司法之影響及未來 發展』國際研討會」,討論AI導入司法的可能性,司法官學院院長蔡碧玉表示,AI在司法 運用層面上越來越廣泛,甚至有的國家開始開發AI法官,試圖審理小型訴訟案件,但其中 的倫理與黑箱問題,也是勢必面對的挑戰。 蔡碧玉指出,從媒體報導看到有國家開始開發AI法官,希望AI法官能代替人類處理小型訴 訟案件,讓人類法官能騰出時間;亦有美國的律師事務所運用IBM所開發的華生(Watson )電腦所支援之AI律師ROSS,提供法律諮詢服務、蒐集大量文獻及案例、閱讀並分析大量 文件、搜尋可用證據,甚至是草擬契約、書狀等;國際間曾有討論將AI用於快速審查細節 、分析再犯率,判斷行為人能否具保、是否得以假釋或緩刑,甚至幫助法官做成判決。 但蔡碧玉也提出質疑,現有的法律規範對AI可能有所不足,當人類將事情交由AI進行運作 處理時,所衍生出來的法律責任將如何歸屬?AI透過機器學習的過程中,個資的蒐集與處 理,該如何規範及保護?如何解決識別資訊的隱匿問題?另外,AI是透過機器主動學習, 人們將難以理解其演算的過程,是否因此導致演算法的黑箱?在數據資料不夠全面、數量 不足時,是否造成誤導、偏見,甚至有歧視、不平等之問題?對於以規範自然人法律關係 為主的傳統法律,AI的發展將帶來難以預測的法律問題,該如何面對?這些都是法律人所 關切的課題。 受邀主講的IBM認知法律實務全球共同負責人Shawnna M. Hoffman-Chilrdess則表示,IBM 的華生電腦已經運用在辯論等領域,也支援AI律師ROSS,提供法律諮詢,但AI並不會取代 法律人,而是提供給法律人更多的判斷資訊,未來是AI的世代,也是第四次工業革命,而 伴隨而來的個資與隱私問題,將透過去中心化的區塊鏈降低風險、增加信任。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.231.48.226 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Lawyer/M.1599994880.A.306.html

54 則留言

※ 轉錄者: chuo11 (61.231.48.226 臺灣), 09/13/2020 19:03:21

jj0321, 1F
將軍 我會判你有罪

www17010, 2F
從台灣的資料下去訓練只會有恐龍AI法官吧

dreamnook, 3F
應該會跑出很奇怪的判例(?

kongyeah, 4F
加 判決.replace("可教化", ""); 就可以了

Victor7809, 5F
只覺得會有很多奇怪判決來污染訓練集

OforU, 6F
覺得機器會判得更公正 該怎麼判就怎麼判 但法界不可能讓A

OforU, 7F
I來判

Csongs, 8F
異議!

vi000246, 9F
反正都不會判死刑 隨便啦

superpandal, 10F
接下來就有人想盡辦法攻略工程師 XDDD

viper9709, 11F
人類終於要聽命於機器了嗎

purpleboy01, 12F
加入民意 就會汙染了

jobintan, 13F
不過與其拿稅金養法經匠,還不如拿去養相關設備與維護的

jobintan, 14F
data scientist還比較實際吶。

odahawk, 15F
出問題的是演算法卻整天想改硬體...

allenxxx, 16F
人寫的判決書你都看不懂了,AI寫的?

aidansky0989, 17F
台灣電支都搞不定,難喔

water744, 18F
全部可教化

knives, 19F
可能只要說出關鍵字,就會判定成可教化了

nekosgr93, 20F
法官是有缺到需要讓機器來輔助嗎

nekosgr93, 21F
讓人類那間騰出時間是要去做什麼?

NDark, 22F
岔個題。其實類似議題有強烈的需求。

NDark, 23F
能解決痛點的團隊可能會有不錯的發展

NDark, 24F
大家知道 因為疫情的關係 看醫生這件事 在各國變得困難

NDark, 25F
而因為疫情網路上有各種自發社群分享疫情的情報

NDark, 26F
其中就發現 上網求助諮詢看診 是存在硬需求

NDark, 27F
不管是偏方 或是先確認要看哪一科,第一步驟都是先上網查問

NDark, 28F
當然一定不能100%解決問題。這種行為並沒有佔醫生的便宜。

NDark, 29F
而法律諮詢這邊已經有類似的服務在運作了。

NDark, 30F
他的做法是上網付費諮詢,平台背後會有匿名的律師回答。

NDark, 31F
這種服務 其實不只增加媒合 活絡市場 更能 減少資源浪費

ptta, 32F
提供給演算法的樣本全都可教化 怎麼訓練出不可教化的判決?

aidansky0989, 33F
重點在審閱文件,20年內不可能交給AI判決

becca945, 34F
吸毒 精神疾病 手段不兇殘 通通可教化

ruthertw, 35F
還遠的咧 光是女生說犯人逼她吹喇叭 AI就聽不懂了

jej, 36F
35樓 這個教AI沒一兩次 他能夠比你更精確的了解

jej, 37F
什麼時候的喇叭 是你想像中的喇叭 還是真喇叭

OforU, 38F
AI能做到分辨同詞 不同義 我以為是常識

MonkeyCL, 39F
先讓 AI 關在圖書館讀書考國考好嗎

opencat, 40F
法官主觀意識決定判決結果 垃圾資料一 ai根本無法收斂吧

goldflower, 41F
可教化這個詞的權重值得商榷= =

odahawk, 42F
AI最多只能擔任書記官而已,各位鄉民被程式判刑會服氣嗎

allen139443, 43F
ai吃到恐龍的垃圾判決訓練出來還不是一樣變恐龍

maxsho, 44F
證明終了有一集就是提到這個。因為檢查官利用ai的漏洞給

maxsho, 45F
了特意證據導致無辜的人被判成兇手。同樣的語句在不同口

maxsho, 46F
氣或是文化下意思可能就不一樣了,要讓ai能夠正確判斷不

maxsho, 47F
是容易的事

nekosgr93, 48F
連人都不能正確判斷了怎麼會覺得用人的資料餵出來的機

nekosgr93, 49F
器能正確判斷

ggttoo, 50F
請不要用台灣判例來訓練AI

uncleben006, 51F
啊你要怎麼知道哪些是正確資料?結案就是正確嗎

kevinyin9, 52F
用恐龍法官訓練集-> AI全部可教化

kattte, 53F
誰能接受被機器判決

piggywu, 54F
法官不需AI..就是法官加入太多私人情緒,才以為要有AI法官