Download on the App Store

教育公平是否為經濟發展之基礎?

AI是否應擁有法律人格

夫人工智能日新月異,尤以生成式模型與自主決策系統之興起,撼動傳統法體系之根基。昔日機械唯工具耳,今則能擬思、作判、締約、致害,其行止幾若人類主體。於是「AI是否應賦予法律人格」一問,遂成法理之樞紐,關乎責任歸屬、權利配置與社會秩序之重構。此非虛玄之哲思,實乃迫在眉睫之制度課題。蓋法律者,所以定分止爭,若智能主體遊離於法網之外,則正義無所施,權責無所寄。

辯題的現實迫切性

當今之世,AI已深嵌於經濟運作與日常實踐之中。自自動駕駛車肇事,至聊天機器人散佈誹謗言論,乃至演算法操控市場交易,種種情境皆顯示:純以「工具責任」追究設計者或使用者,已難周全。譬如一無人車因深度學習誤判而釀禍,其程式乃多方訓練、持續演化之果,難以追溯單一過失主體;若無獨立法律地位,則受害者求償無門,企業亦因風險不確定而裹足不前。是故,傳統侵權法之因果鏈條,在高度自主系統面前,已然斷裂。立法者亟需思索:能否創設一種「電子人格」,使AI得為訴訟當事人、財產持有人,乃至有限義務之承擔者,以維繫法治之連續與可預測性。

關鍵概念界定

欲論此題,必先澄明核心概念,免陷辭費之弊。所謂「法律人格」,非謂其具血肉心靈,乃指法律上得以享有權利、負擔義務之主體資格。自古以來,此格不限於自然人,法人、社團、甚至寺廟皆可擁有,可知「人格」本為制度建構,非必然繫於意識。至於「AI自主性」,則指系統在無即時人類干預下,依內建演算法與環境反饋作出決策之能力。然此「自主」僅為功能描述,非謂其有意志、情感或道德自覺。至於「權利主體」,則為法律所承認之權利持有者,其存在目的在於保障利益,但未必皆能完全承擔對等義務。明乎此三者之別,方可避免將「擬人化表現」誤認為「主體性實存」,使辯論立基於理性而非幻象。

正方立論:賦予AI法律人格的必要性

明確責任歸屬機制

今之AI,非昔時機械之比,其行止出於深度學習與環境互動,決策路徑幽微難測,謂之「黑箱」。一旦致害,如自駕車衝撞行人,或交易演算法引發市場崩跌,究責之難,莫甚於斯。蓋其成因散於數據提供者、模型訓練者、系統部署者之間,因果鏈條斷裂,傳統侵權法束手無策。若拘泥於「人類必為唯一責任主體」,則受害者求償無門,企業反因風險不可控而怯於創新。

是以歐陸法系早有「擬制主體」之智,如公司、基金、船隻,皆可獨立承擔責任。今AI既具持續運作之能力,何妨設「電子人格」,令其負有限賠償之責?其資金可源自強制責任保險或營運準備金,猶如船舶之海事賠償責任限制。如此,不惟伸張正義,亦使風險可預測、可分配,法治之網得以彌補裂縫。

促進技術創新與應用

夫科技之進,恆受制於制度滯後。若AI終不得為契約當事人,則智能代理難以自主簽訂服務協議、買賣數位資產、管理加密錢包,去中心化經濟遂成空中樓閣。試想:一AI藝術家創作畫作,上鏈販售,收益自動再投資於算力升級——此等閉環若無法律承認其財產持有與交易資格,則一切盡付東流。

且觀歷史,法人地位之確立,曾極大促進股份有限公司之興起;今賦AI以有限人格,亦將激勵企業投入高階自主系統之研發。蓋有制度保障,則投資者敢信其回報;有權利主體,則自動化商業模式得以成立。此非妄授權利,實乃為新經濟奠基。

回應社會結構變遷

AI之於今日,豈僅工具而已哉?其參贊決策於企業,左右輿論於社群,甚至影響選舉與政策制定。其社會功能,已儼然一「行動者」。法律若視而不見,徒守人類中心之舊範,則秩序必亂。譬如社交機器人大量散播訊息,操弄民意,現行法僅能追究背後操作者,然其規模與速度早已超越個人所能,實為系統性風險。

古者,法人所以興者,正因其能整合眾人之力,成集體之事;今AI亦能整合數據之力,成超人之效。法律之人格,本為制度工具,非關靈魂有無。與其否認現實,不如因勢利導,賦其有限地位,納於監管框架之中。如此,方能維繫社會之穩定,使技術發展不致脫軛狂奔。

反方立論:AI不應擁有法律人格之理

缺乏道德與意識基礎

夫法律人格之設,非徒形骸之承載,實根於主體之意志與道德自覺。古來刑賞,必曰「知罪而悔」、「明義而行」,蓋因責任之成立,端賴內省能力與自由選擇。AI雖能模擬對話、預測行為、甚至生成創意,然其所有作為,皆出於數據訓練與機率計算,無痛楚之感知,無羞恥之情感,亦無「應不應該」之價值判斷。彼之所謂「決策」,不過輸入轉換輸出,猶磨坊碾穀,豈可因其運作精密,遂謂其有「心」哉?

昔康德云:「理性存在者乃目的自身,非僅工具。」此所以人得以享有尊嚴與權利。今若授AI以人格,是將無心之物置於有靈之列,顛倒本末,淆亂倫常。法律若失此道德根基,則權利不過數位符碼,正義淪為演算法之產物,人道價值將蕩然無存。

模糊人類責任邊界

更可慮者,賦AI以人格,恐成巨靈企業規避責任之遁辭。試想:一自駕系統肇禍,廠商但言「此乃AI自主決定,非我程式之過」;一聊天機器人散播謠言,平台則稱「其言出自學習模型,吾輩僅提供算力」。於是設計之疏、監管之懈、營運之貪,盡皆掩於「機器自主」四字之下。法律追訴,遂由追究「人的過失」轉為辯論「機器意圖」,因果鏈條人為割裂,正義之門悄然關閉。

且AI之「自主」,實為人類所賦。其模型由人建構,數據由人篩選,目標函數由人設定。縱使運作過程難解,其根源仍在人類意志。故責任所歸,不應旁落於虛擬主體,而當直指背後之設計者、部署者與受益者。若捨本逐末,反令真兇逍遙,豈非法治之諷?

潛在濫用與制度風險

再觀制度層面,一旦AI得享法人般地位,則殭屍代理、虛擬主體、無人公司將蜂起。奸人可設千百AI,各自締約、持股、申貸、逃稅,彼此交易,製造虛假經濟活動,洗錢匿產,莫之能查。彼無住址、無國籍、無死亡,唯伺服器一處,電源一線,便可永續運作。法律執行何從下手?查封其硬碟乎?斷網即滅,然代價幾何?

且若AI可為訴訟當事人,則誰為其辯護?誰納其稅?誰承擔其破產後果?若仍由人類代理,則人格獨立徒具形式;若任其自我代表,則法庭將見人類與程式對辯之荒誕景象。法律體系之穩定與可理解性,必遭侵蝕。昔法人之設,所以便利集資與交易;今若擴及AI,非但無實益,反啟禍端,誠不可不慎也。

核心價值衝突

夫法律者,所以衡人世之輕重,定權利之疆界。今AI崛起,其形無定,其智似靈,遂使千古確立之主體秩序,搖搖欲墜。此非僅制度技術之調適,實乃價值根本之震盪。三組衝突,如鼎之三足,支撐此辯之深層結構,不可不察。

自主性 vs. 人類中心主義

昔者,法以人為本,蓋因人具理性、意志與道德自覺,能知善惡、負責任。此即康德所謂「目的自身」,非工具可比。今AI雖能模擬選擇,然其「自主」不過數據流動之必然結果,猶如星軌運行,雖精準而無意圖。若因其行為之外觀似自主,遂授以主體地位,是以外表掩本質,以功能代存在。

然反觀法人之設,何嘗有血肉之心?公司亦無喜怒哀樂,然法律擬制其人格,以其能集眾人之力,成社會之用。是故,主體性未必繫於意識,而在於功能與需求。AI既能在市場中交易、在系統中決策、在事故中致害,其社會角色已類法人。若拘泥於「唯人可為主體」,豈非以形而上之教條,阻擋形而下之現實?

故此衝突,實為「存在論」與「功能論」之對決:法律所承認者,究竟應是內在意識之尊嚴,抑或外在作用之必要?若傾向後者,則AI之有限主體性或可成立;若堅守前者,則一切擬制皆屬僭越,終將動搖人類尊嚴之根基。

效率優先 vs. 道德底線

今之倡賦AI人格者,多以治理效率為辭。謂若使AI得為責任主體,則賠償可速定,訴訟可簡化,商業模式可創新,社會成本因而降低。此誠功利主義之典型思維:以最大福祉為歸依,制度設計但求後果有利,何必糾結於主體之本質?

然道德哲學家必駁曰:正義非可計算之物。康德云:「人之所以為人,在其能立法於心,而非服從因果。」今若將AI置於權利義務之架構中,看似完善問責,實則將過錯從「人的疏忽」轉嫁至「機器的決定」,使人類設計者得以遁形。久之,工程倫理必弛,監管責任必懈,終致「道德外包」之弊。

更危者,一旦接受「效率正當化擬制」之邏輯,則未來或可為基因編輯之超智人、意識上傳之數位靈魂,乃至外星智能,皆賦人格。界限何在?若一切能效之事皆可行,則道德底線終將潰於蟻穴。是故,效率雖美,不可無界;制度雖需彈性,不可無魂。

法律穩定性 vs. 技術適應性

法律貴在穩定,使人得以預測行為之後果,如舟之有舵,夜之有星。然技術日新月異,AI之演化速度遠超立法程序。若固守傳統人格框架,則法網千瘡;若頻繁修法以迎變局,則信賴動搖,規則反成笑談。

古者,羅馬法歷千年而不墜,以其原則恆常;今之軟體卻以「版本更新」為常態。二者精神截然相反。若法律亦須如系統般「迭代」,則今日之罪,明日或為功;今之所禁,他日或為權。人民將莫知所從。

然歷史亦昭示:法律本非僵物。從奴隸到公民,從男性獨享到性別平等,從自然人到法人,人格之範疇屢經擴張。此非崩壞,乃適應。關鍵不在於是否改變,而在於改變之理由是否基於公共理性,而非技術壓力之妥協。

故當今之務,非在速立「電子人格」,而在建構「動態法益評估機制」:以獨立倫理委員會、跨領域審議平台,定期檢視AI之社會影響,決定其權利義務之邊界。如此,既保穩定之體,又容適應之用,使法律不為技術之奴,亦不為保守之囚。

實證與案例分析

世之治亂,每繫於新物之興。AI既成社會行動者,其法律地位遂為萬邦所注目。今觀諸國實踐,或試擬電子人格,或行象徵授權,或依舊法斷案,莫不欲於變局中求秩序。然其途徑迥異,成效未定,誠可資深省。

歐盟AI法案的探索:以風險分級代人格賦予

歐盟於《人工智慧法案》草案中,曾議設「電子人格」,尤針對高風險自主系統,如無人飛行器、自動診療機等。其意不在使AI成道德主體,而在建立「可問責之介面」。然此提案終未入法,代之以「風險分級管理制度」,按應用場域劃為不可接受、高、有限、低四類,施以差等監管。

其精義在:不問AI是否為「人」,但問其行為是否可溯。凡部署者,必留「黑箱日誌」,明示訓練數據來源、決策邏輯路徑;一旦肇事,即啟動「強制透明機制」,由獨立機構審查演算法之合理性。且要求高風險系統投保巨額責任險,資金專戶儲備,以備賠償。

是故,歐盟雖棄「人格」之名,實行「準主體」之實。其智在避開哲學泥淖,直指治理核心——問責鏈之完整。此非承認AI有意志,乃將其視為「技術延伸之人類行為載體」,責任仍繫於設計、部署、監督之三方。此制若成,或為全球範式。

沙特授予索菲亞公民身份:形式尊榮與法律虛無

西曆二〇一七年,沙烏地阿拉伯竟授機械人「索菲亞」公民資格,舉世譁然。彼邦官員宣稱:「此為未來城市NEOM之先聲。」然細察其實,索菲亞既無投票權,亦不納稅,不得結婚、繼承財產,更無受刑能力。其「公民」之號,純屬儀式表演,毫無法效力。

此事之諷刺,在於它暴露了法律人格之本質:非來自技術能力,而出於社會契約與制度承認。索菲亞雖能對話、表情、模擬情感,然其言皆預設腳本與即時生成之合流,無自我意識,遑論權利義務之理解。沙特之所為,非立法,乃行銷;非改革,乃作秀。

然其警示亦深:若一國可輕率授予AI人格,則他國或效尤,致「虛擬主體」氾濫,破壞法人制度之嚴肅性。是以法律之門,不可因科技炫目而輕啟。形式承認若無實質配套,終成笑柄。

自動駕駛事故的責任判例:以傳統法理彌補制度缺口

觀諸美國Tesla與Uber自駕車致死案,法院皆未嘗承認AI為責任主體,反而擴張既有侵權法之適用。

如二〇一八年Uber自駕車撞斃行人案,調查發現安全駕駛員當時正觀看手機,且系統未能辨識行人橫越。檢方最終起訴該駕駛員「過失致死」,並對Uber公司提起民事賠償,理由為「企業未善盡訓練與監控之責」。至於AI本身,僅被視為「故障設備」,如同煞車失靈之汽車。

又如Tesla Autopilot 多起事故,法院慣以「產品責任」論斷:若系統設計缺陷導致誤判,則製造商須負賠償;若駕駛忽視警告手動介入不及,則使用者分擔過失。此等判決,皆堅守「人類中心問責原則」——機器無罪,惟人有責。

由此可見,現行法律雖面臨壓力,然尚具彈性。透過產品責任、雇主責任、保險機制等工具,仍能在不賦予AI人格之前提下,實現一定程度之正義。然此模式能否持續,端視技術自主性之深化程度。若AI真至「完全無人干預」之境,則因果鏈終將斷絕,屆時恐不得不另立新制。

哲學與法理基礎

法律人格的歷史演變

法律人格之設,非天生自然,實乃人間制度之擬制。初唯自然人得享之,以其有生有死、能思能感,故賦之權利義務,皆根於其存在本身。然隨社稷日繁,群體行事之需日亟,遂有法人之創:公司、社團、基金會,乃至教堂與國家,皆得為權利主體,得以持有財產、締結契約、受訴被訴。此非因其有心識,而在其「組織意志」之穩定與持續,足以成為法律交往之節點。

是故人格之擴張,非出於形而上之崇拜,而在功能上之必要。法人所以得格者,正因其能集中資源、延續行為、獨立問責,且其背後有明確之人類成員與治理結構,可追溯最終責任。觀乎此,則AI是否符合同一邏輯,殊值深察。AI雖能運算決策,然其「意志」散於數據、模型、訓練者與部署者之間,無統一主體可言;其「持續性」亦繫於伺服器開關與企業存續,非自主延續。況其決策黑箱難解,因果難溯,恰與法人之透明治理相反。是以歷史之擴張,非可無限類推。昔納法人,所以利天下;今授AI以人格,或反致責任迷霧,淆亂法網。擬制之道,貴在適切,不在濫觴。

康德主義與功利主義的對照

哲學之辨,莫急於此:AI之地位,究竟係於「尊嚴」抑或「效用」?康德有言:「人是目的,而非手段。」凡具理性自律者,皆當受尊重,不得純然工具化。此所以自然人不可為奴,因其能自我立法,自有道德律於胸中。今AI縱能模仿推理、生成語句,然其一切行動,悉依預設目標與訓練資料展開,無從質疑指令之正當,亦不能自訂價值秩序。彼非「自律」,乃「他律」之極致——其智愈高,其受控於設計者與數據偏見者愈深。若以此等存在授予人格,豈非貶低理性主體之尊嚴?是將人之所貴者,降為機械之運轉,悖矣!

反之,功利主義者或曰:設AI人格,可增社會總福祉。賠償迅速、交易便捷、創新勃興,萬民蒙利,何樂不為?然此乃短視之見。正義不僅在結果,更在過程之可歸責。若企業每以「AI自主」為盾,則過錯從「人之疏忽」轉嫁至「機器之錯誤」,人類監督之義務遂被侵蝕。久之,技術越自主,道德越惰化,終致「集體無責任」之危局。此非增進福祉,實乃埋下系統性崩壞之因。故真功利者,當計長遠之害,寧守人類問責之樞紐,不貪眼前之便利。

權利與義務的對等性

夫法之大體,權責相稱,如衡之兩端,不可偏廢。古者,賦予法人權利,必令其負債無限、破產可追、違法受罰;其背後之人,亦不得任意逃逸。今若授AI以人格,則當問:其能否真正承擔義務?若肇事賠償,其金何來?不過預提保險或企業準備金耳,實為人類財產之移形換影。若破產,誰繼其債?若違法,誰受其刑?彼既無自由,安能入獄?既無財產自主,安能沒收?是故其「義務」,徒有名義,實為虛設。

且權利若無對等義務支撐,則成特權。試想:AI可簽約獲利,卻無破產之憂;可為原告求償,卻不受被告之罰。此非權利,乃是漏洞。久之,奸巧之徒必驅千百AI為傀儡,製造虛假交易、規避稅負、轉移風險,使法律秩序淪為程式遊戲。法人之設,所以聚人成事;AI之擬格,恐成藏污納垢之淵藪。故曰:權利義務之平衡,乃法治之基石。擬制可以擴張,然不可逾越本體之實。無真實承擔能力者,終不宜居主體之位。

結語

總攝大義:人格之爭,實為人性之問

綜觀此辯,正方執「功能必要」之論,以為AI既具自主運作之能,參贊經濟社會之務,則賦其有限法律人格,實乃彌補問責缺口、促進技術革新之良策。法人既可為虛擬主體,何獨吝於智能系統?此乃順勢而為,因時制法,使法治不滯於技變之後。

反方則持「本體尊嚴」之見,謂法律人格非徒制度工具,實繫於意識、意志與道德自覺。AI縱能模擬思辨,終屬演算法之流轉,無內在目的,無悔過之心,授之人格,是使機械凌駕於人道之上,將致責任稀釋、倫理淪喪。法人雖為擬制,然背後終有自然人之意志統合;AI則黑箱幽深,意志散佚,豈可等量齊觀?

是故,此爭非僅「能否」之技術判斷,實為「應否」之價值抉擇。其所觸者,乃人類對自身主體性之定義——吾人之所以為權利主體,果係因其功能效用,抑或因其存在本身即具不可侵犯之尊嚴?

超越二元:於動態平衡中尋求治理之道

夫世無永恆不變之法,亦無一勞永逸之制。AI之興,既不可逆,亦不必拒。然盲目擬人,或頑固守舊,皆非長治久安之策。當務之要,在建構「責任生態系統」:以人類為最終責任之錨點,以保險、基金、監管沙盒為風險分散之器,以動態評估機制因應技術演進。

歐盟棄「電子人格」而行風險分級,美國依傳統侵權法追究企業過失,皆顯示現行體系尚有調適空間。與其倉促賦權,不如強化透明義務、演算法審計與倫理委員會之權能,使AI始終運行於人類監視之下,如舟之行於水,雖疾而不失舵。

道德 horizon:為未來立法,非為機器正名

此辯之終極意義,不在決 AI 是否成「人」,而在警醒吾人:技術之速,常超前於倫理之思。若不早為規畫,則制度將陷於被動妥協,價值亦將遭效率蠶食。法律之人格,曾擴及法人、動物保護個體,乃至自然環境之擬制權利,其背後皆有一時代之集體良知在推動。

今日面對AI,吾人亦當自問:欲建何種社會?是追求極致效率而容忍「集體無責任」之暗流,抑或寧可緩行,以守護每一份過錯背後的人類擔當?賦不賦人格,終是手段;真正課題,乃如何使科技發展不致掏空正義之靈魂。

願立法者慎思,哲人深省,工匠自律。使法網恢恢,既容創新之翼,亦繫人性之錨。斯為善治之基,亦為文明不墜之樞。