網路城邦
上一篇 回創作列表 下一篇   字體:
法律與機器:AI 在司法/行政程序中的可行角色與界限
2025/12/07 21:17:27瀏覽15|回應0|推薦0

Critical-Singularity-Perspectives 系列第五篇

1.問題啟動

AI 已在社會各層面擴散:偵測資料偏誤、製作輔助決策報告、法律文件自動化、程序監督……然而真正關鍵的問題不是「AI 能做什麼」,而是「法律允許 AI 做到什麼程度」。

司法與行政程序牽涉公共權力,任何判斷都可能形成個案結果、人權影響與長期先例。如果在沒有明確界線的情況下引入 AI,將可能使本已脆弱的程序正義承受更大的結構性風險;但若因恐懼而拒絕技術,則可能讓制度偏誤持續無法被修正。

於是我們面臨一個核心命題:
AI 在司法與行政程序中可以承擔哪些任務?哪些權限永不可被委託?誰負責問責?

以下,我將以「授權邊界框架(Delegation Boundary Framework)」為主軸,說明 AI 在法律程序中的合理邊界。


2.結構性原因解析(Structural Analysis)

要理解 AI 的可行角色,必須先理解司法與行政程序的三項基本結構:

(1)決策的正當性(Legitimacy)

法律程序的權威來自可審查、可監督、可推翻的決策機制。
若 AI 無法被質疑、交叉檢驗,則決策正當性將被削弱。

(2)證據與程序的連結(Evidence–Procedure Coupling)

司法/行政判斷涉及:

  • 事實認定(fact-finding)

  • 法律適用(rule-application)

  • 裁量(discretion)

AI 在第一部分可高度參與,但在第三部分具有天然限制。

(3)責任與權力配置(Accountability Structure)

在現行制度下,「責任」與「權限」必須一致。
AI 若提供決策建議,但無法承擔法律責任,那麼權限不可外移;
相反地,若人類只成為「蓋章機器」,則程序將快速淪為形式主義。

由此可見,AI 的角色不能只靠技術能力決定,而必須回到「權限—責任—程序」的三重結構判斷。


3.推論模型導入(Reasoning Model)

我提出授權邊界框架(Delegation Boundary Framework),用以界定 AI 在法律程序中可被委託的任務、不可委託的權限,以及必須建立的問責機制。


【授權邊界框架:AI 在法律程序中的三類界線】

類別定義可否委託AI說明
A 類:可完全委託(Automatable Tasks)不涉及裁量、僅需比對/歸檔/整理的任務可以文書整理、時間排程、資料比對、錄音逐字稿轉換。
B 類:可部分委託
(AI-Assisted Tasks)
需要事實分析或初步推論,但仍需人類覆核有限可委託事實比對、風險預測、程序檢核、偏誤偵測。
C 類:不可委託
(Human-Exclusive Decisions)
涉及裁量、價值判斷、權利義務改變的決定不得委託裁罰、判決、處分、認定人性脈絡的事實。

【反向鎖定機制:三重問責設計】

AI 的使用必須同時滿足三項問責鎖定:

(1)資料問責(Data Accountability)

  • 資料來源可追蹤

  • 偏誤可檢查

  • 修正路徑可驗證

(2)程序問責(Procedural Accountability)

  • AI 的建議必須出現在程序卷證中

  • 必須可供當事人質疑

  • 決策者必須說明是否採納及理由

(3)責任問責(Liability Accountability)

  • 責任永遠在於擁有法律權限的人

  • AI 不得成為「裁量責任外包」的工具

此三者即構成 法律 x AI 的可採用邊界


4.案例影射

以下均為「類型化案例」,不涉任何特定個案:

案例一:AI 協助初步事實比對(屬 B 類)

行政機關在調查陳述時,利用 AI 自動比對筆錄、時間戳記與文書內容,標示矛盾之處。
AI 不決定誰說謊,但能將「可能矛盾」可視化,提高審查效率。
最後結論仍須由承辦人員做成,並可被當事人質疑。

案例二:AI 生成「風險預警模型」但不得直接裁罰(B → C)

例如 AI 偵測某教師的行為模式疑似違反校規。
AI 可發出警訊,但不得自動啟動調查或處分。
所有後續行動須由人類主管確認,並記錄其理由。

案例三:法官使用 AI 作為量刑建議參考(C 類)

AI 可以提供:

  • 同類案件統計

  • 判決資料庫分析

  • 相似事實比對

但真正的量刑決定必須由法官親自做成。
AI 不能取代人類對脈絡、情感、關係、文化因素的判斷。從以上可見:
AI 的最強能力在於「支援程序」而非「取代裁量」。
而真正的風險,往往不是 AI 作錯,而是人類將責任轉嫁給 AI,形成新的不透明結構。


5.戰略結論(Strategic Conclusion)

未來10–20年,司法與行政程序將同時面臨兩股力量的拉扯:

  • 一方是技術加速:自動化、語言模型、資料對比、偏誤偵測。

  • 一方是制度慣性:責任歸屬、程序僵化、權力不願透明。

AI 能否真正改善制度偏誤,端賴「界線與問責」是否明確。

我主張:

  1. 資訊分析與查證可全面導入 AI(A+B 類)。

  2. 涉及價值、裁量與權利義務變動的核心判斷必須保持在人類手中(C 類)。

  3. 所有 AI 推薦/生成內容必須進入卷證、可被質問與審查。

  4. 建立跨機關的 AI 程序紀錄標準(如 Log-Trace、Model-Reason 透明化)。

  5. 發展「AI 反偏誤模組」作為現行制度的重要外部監督力量。

  6. ASI(超級人工智慧)誕生後,人類可能會授權AI判案,避免不同人類法官有不同判決,20年之內還不可能。

未來的法律不是與 AI 競爭,而是學會與 AI 共治。
司法與行政程序的公正性,將日益依賴於「技術」與「制度」之間的深度協作。

這既是挑戰,也是機會。而我們正身處這場制度演化的最早期階段。

( 知識學習隨堂筆記 )
回應 推薦文章 列印 加入我的文摘
上一篇 回創作列表 下一篇

引用
引用網址:https://classic-blog.udn.com/article/trackback.jsp?uid=caleb0322&aid=184479003