不妨想象一下:今年是2023年,自動駕駛汽車終于在我們的城市街道上行駛了。然而,這也是自動駕駛汽車第一次撞擊一名行人并致其死亡,媒體對此進行了廣泛報道。一個備受矚目的訴訟案很有可能發生,但是這個事件應該適用什么樣的法律呢?
今天,基于英國布萊頓大學John Kingston的相關研究,我們得到了一些答案——他在這個剛剛開始的法律領域做出了一些探索。他分析指出了汽車、計算機和法律領域人士應該認真對待的重要議題。如果他們還沒有開始思考這些問題,現在也是時候準備了。
這場爭論的核心是,人工智能系統是否可以為其行為承擔刑事責任。Kingston說,以色列Ono Academic College的Gabriel Hallevy對這個問題進行了深入探討。
刑事責任通常需要一個行動和一個心理意圖(在法律術語中可以表述為一種犯罪行為和犯罪意圖)。Kingston說,Hallevy探索了三種可能適用于人工智能系統的場景。
第一種被稱為“通過他者犯罪的肇事者”(perpetrator via another),患有精神疾病的人或動物犯下罪行時適用,他們也因此被認為是無辜的。但是,任何指使過精神病人或動物的人都可以被追究刑事責任。例如,一條狗的主人命令其攻擊另一個人。
這對那些設計和使用智能機器的人來說意義深遠。Kingston說:“人工智能程序可以被認為是無辜的代理,而軟件程序員或者用戶則可以被認為是‘通過他者犯罪的肇事者’。”
第二種情形是所謂的“自然可能后果(natural probable consequence)”,當人工智能系統的一般行為可能被不適當地用于執行犯罪行為時。
Kingston舉了一個例子,一個人工智能機器人在日本摩托車工廠里殺死了一名人類工人。Kingston說:“機器人錯誤地將這個員工認定為對它執行任務構成威脅的人,并計算出消除這種威脅最有效的方法,即將其推入相鄰的操作機器。機器人用它強大的液壓臂把陷入驚恐的工人砸到機器上,并致其當場死亡,然后繼續執行工作任務。”
這里的關鍵問題是,設計機器的程序員是否知道這個局面是機器使用可能帶來的后果。
第三種情況是直接責任(direct liability),這同時需要行動和意圖。如果人工智能系統采取了導致犯罪行為的行動,或是在有義務采取行動時未能采取行動,那么這就很容易證明了。
不過Kingston也表示,這一行為的意圖更難確定,但仍然是相關的。“超速行駛是一種嚴格的責任犯罪,”他說。“所以,根據Hallevy的說法,如果一輛自動駕駛汽車被發現在道路超速行駛,那么法律很可能會對當時正在駕駛汽車的人工智能程序追究刑事責任。”在這種情況下,車主可能不承擔責任。
人工智能可能為自己辯護
之后是辯護問題。如果一個人工智能系統可能會承擔刑事責任,它會使用什么來辯護?
Kingston提出了一系列的可能性:一個存在故障的程序是否能像人類一樣以精神錯亂為由進行辯護呢?一種被電子病毒感染的人工智能是否能以脅迫或醉酒為由進行辯護?
這些辯護手段絕不是理論上的。Kingston 指出,在英國,一些被指控電腦犯罪的人成功地辯稱,他們的電腦感染了惡意軟件,而這些惡意軟件恰恰是導致犯罪的罪魁禍首。
在一個案例中,一名被指控執行“拒絕服務型攻擊”(Denial-of-Service Attacks)的少年電腦黑客聲稱,為此事件負責的應該是特洛伊木馬程序,而這個木馬程序在被進行初步分析之前已經從電腦中自我清除了。Kingston說:“被告的律師成功地讓陪審團相信,這樣的情況并不超出合理的質疑。”
AI系統闖了禍,誰來背鍋
最后,還有懲罰的問題。誰或者什么會因為一個AI系統的直接責任而受到懲罰?這個懲罰會采取什么形式?就目前而言,這些問題沒有答案。
然而在這種情況下,刑事責任不適用,必須通過民法來解決。那么,一個關鍵的問題來了:人工智能系統是服務還是產品。
如果它是產品,那么產品設計立法將作為適用于這種情況的基礎保證。
如果它是服務,則過失侵權行為適用。在這種情況下,原告通常必須通過三個要素來證明過失。第一個是被告有照顧義務——通常是很直接的,盡管在人工智能的情況下,很難評估護理標準,Kingston說。第二個因素是被告違反了這項義務。第三個因素是,這一違反行為對原告造成了傷害。如果這一切還有些含糊不清,人工智能系統的法律地位可能會隨著它們的能力變得更像人類(甚至是超人)而改變。
有一件事是肯定的:在未來的幾年里,這一切對律師們(或者是取代他們人工智能系統)可能會有一些意思。