首頁 > 最新新聞 > 因應未來AI衍生系統事故責任,日本擬定法令解釋準則

因應未來AI衍生系統事故責任,日本擬定法令解釋準則

2025/09/12 5

為了應對未來AI衍生的系統或服務可能引發的事故責任問題,日本經濟產業省計畫在2025年度內整理出一份法令解釋的指導原則「準則」。

根據日刊工業新聞在2025年9月1日的報導,日本經濟產業省將會彙整有關人工智慧(AI)涉及事故時民事責任的法律解釋,目標是在2025年度內制定這個「準則」。因為生成式AI快速普及,預期會有越來越多由AI衍生出的系統或服務造成事故。經產省會考量到AI具備自律性判斷的特性,依照現行法律整理責任歸屬和相關論點,以提升可預見性,好讓大家能夠更好地應對突發狀況。同時,在推動AI應用以創造新產業和企業創新的同時,也會加速事故處理和受害者救濟。

專家會議將於2025年度展開討論,重點放在不法行為及製造物責任法如何解釋與適用。這次會議將假設AI可以進行自律性判斷且具有「黑箱」特徵,以設定過失責任與製造物責任的一些案例。

例如,如果在配送工作或律師輔助中使用了AI而發生意外,那麼就要討論到底是誰要負擔這個責任或者注意義務,同時也要檢視造成事故之系統所搭載基礎模型開發者等各方當事人的責任範圍。

目前如果是把AI用來輔助人類行為或判斷,那麼最終負擔主要還是使用該技術的人;但是如果是由於AI作出自律性的判斷,那就需要檢驗其開發階段是否合適。此外,即使是在前述情境下,如果該 AI 系統未達到契約規定品質而引起意外,那麼提供 AI 的公司也可能需要承擔契約上的責任。

日本政府已於2024年發布了「AI事業者指引」,要求企業在進行 AI 開發與應用上,要致力於確保安全性和透明度。相較於歐洲等地制定嚴格法規趨勢,日本採取無強制力之「軟法」(soft law)作為核心建立規範架構,希望能兼顧推動 AI 普及與降低風險。(資料來源:經濟部國際貿易署)