首頁 > 最新新聞 > 因應未來AI衍生系統事故責任,日本計畫整理法令解釋準則

因應未來AI衍生系統事故責任,日本計畫整理法令解釋準則

2025/09/12 2

為了應對未來AI產生的系統或服務所引發的事故責任問題,日本經濟產業省計畫在2025年度內整理出一套法令解釋的指導原則「準則」。

根據日刊工業新聞報導,經濟產業省將會整合有關人工智慧(AI)涉及事故時民事責任的法律解釋,目標是在2025年內制定出這些法律解釋的「準則」。因為生成式AI快速普及,預期由AI衍生出的系統或服務造成事故的情況會增加。經濟產業省會考量到AI具備自律性判斷特徵,依照現行法律整理責任歸屬和相關論點,以提升可預見性,好讓大家能更好地應對突發狀況。同時,在推動AI應用以創造新產業和企業創新的同時,也希望加快事故處理和受害者救助的速度。

專家會議將於2025年度開始討論,重點在於不法行為及製造物責任法如何解釋與適用。這個會議將以AI能進行自律性判斷及具有「黑箱性」作為前提,設定過失責任與製造物責任的一些案例。

例如,如果在配送或律師輔助工作中使用了AI而發生意外,那麼就要討論究竟是誰來承擔這個責任或者注意義務,同時也要檢視造成事故之系統背後基礎模型開發者等多方當事人的責任範圍。

目前若是把AI用來輔助人類行為或判斷,那麼最終負起主要責任的人通常是使用該技術的人;但如果是由於AI進行自律性的判斷,那麼就傾向認為需要檢驗其開發階段是否合適。此外,即使屬於前者情境,如果該 AI 系統未達到契約規定品質而引起意外,那麼提供 AI 的公司也可能需要承擔契約上的责任。

日本政府已在2024年公布了「AI事業者指引」,要求企業在開發和應用 AI 時,要致力確保安全與透明度。相比歐洲等地採取嚴格法規,日本則以無強制力之「軟法」(soft law)作核心建立規範架構,希望能兼顧推廣 AI 與降低風險。(資料來源:經濟部國際貿易署)