2021-03-17 14:46:21 來源:華東政法大學學報
作者:劉憲權 華東政法大學教授,博士生導師
在人工智能產(chǎn)品的使用者未違反產(chǎn)品操作或使用規(guī)程的情形下,人工智能產(chǎn)品引發(fā)危害結果的過失犯罪刑事責任應歸屬于人工智能產(chǎn)品的生產(chǎn)者。人工智能產(chǎn)品的生產(chǎn)者違反注意義務是其構成相應過失犯罪的必要而非充分條件,而違反結果預見義務則是認定其違反注意義務的必要而非充分條件。在認定涉人工智能產(chǎn)品犯罪性質時,面臨著無法準確評價犯罪行為所侵犯的法益和人工智能產(chǎn)品生產(chǎn)者的主觀罪過,以及不符合相關罪名主體要件的“尷尬”處境。對人工智能產(chǎn)品生產(chǎn)者的過失犯罪行為以重大責任事故罪認定無疑是較好選擇。
涉人工智能產(chǎn)品犯罪刑事責任的歸屬
涉及產(chǎn)品的犯罪可被分為產(chǎn)品生產(chǎn)領域的犯罪與產(chǎn)品使用領域的犯罪,涉人工智能產(chǎn)品犯罪亦是如此。在人工智能時代,由于使用者在使用人工智能產(chǎn)品的過程中,對人工智能產(chǎn)品作用發(fā)揮的影響力相較于普通產(chǎn)品而言明顯減弱,而生產(chǎn)者生產(chǎn)人工智能產(chǎn)品時所設計的程序系統(tǒng)對人工智能產(chǎn)品作用發(fā)揮的影響力明顯增強,因此,法律賦予人工智能產(chǎn)品生產(chǎn)者與使用者的注意義務大小也應有所調(diào)整。也即與普通產(chǎn)品的生產(chǎn)者與使用者所承擔的注意義務相比,人工智能產(chǎn)品的生產(chǎn)者理應承擔更多的注意義務,人工智能產(chǎn)品的使用者則應承擔更少(甚至不承擔)的注意義務。人工智能產(chǎn)品的使用者在使用產(chǎn)品時所應遵守的注意義務的全部內(nèi)容即為遵循產(chǎn)品操作或使用規(guī)程,當使用者未違反產(chǎn)品操作或使用規(guī)程時,使用者當然無須為產(chǎn)品所引發(fā)的事故承擔任何責任。換言之,當人工智能產(chǎn)品引發(fā)了嚴重危害社會的結果時,如果人工智能產(chǎn)品的使用者未違反產(chǎn)品操作或使用規(guī)程,則可能承擔刑事責任的主體應為人工智能產(chǎn)品的生產(chǎn)者而非使用者。具體理由如下。
第一,契合人工智能產(chǎn)品設計與生產(chǎn)的初衷。人工智能技術自誕生之日起,就將代替人類大腦實施行為作為核心目標,人工智能產(chǎn)品設計與生產(chǎn)的初衷也正是將人類從繁復的勞動中解放出來,從而減輕人類的負擔。以自動駕駛汽車為例,人類設計與生產(chǎn)自動駕駛程序系統(tǒng),目的是將汽車駕駛員從長距離駕駛的疲勞中解放出來,減輕駕駛員的負擔。顯而易見,自動駕駛汽車的使用者所應承擔的注意義務應小于普通汽車駕駛員所應承擔的注意義務,其僅需按照操作或使用規(guī)程所規(guī)定的內(nèi)容來使用自動駕駛汽車(例如,不能隨意干擾自動駕駛汽車的運行、在汽車發(fā)出警報時及時采取相應措施等),而交通運輸管理法規(guī)所規(guī)定的絕大部分駕駛員所應履行的注意義務,已轉移給自動駕駛汽車的程序系統(tǒng),也即間接轉移給了自動駕駛汽車的生產(chǎn)者,不再由自動駕駛汽車的使用者承擔。在行駛過程中,自動駕駛程序系統(tǒng)控制著汽車的行進方向、行進路線、行進速度等,在無特殊情況發(fā)生時,使用者無須做出任何判斷,也無須采取任何行動(全自動駕駛汽車的“駕駛員”的真實身份其實就是“乘客”,其在任何情況下都沒有義務作出任何判斷或采取任何行動)。如果在自動駕駛汽車的行進過程中,法律仍保留追究未違反操作或使用規(guī)程的使用者刑事責任的可能性,則等同于賦予了使用者持續(xù)監(jiān)督自動駕駛汽車運行的注意義務,也等同于賦予自動駕駛汽車的使用者與普通汽車的駕駛員相同的注意義務,這就和自動駕駛汽車設計與生產(chǎn)的初衷背道而馳了。因此,如果在人工智能產(chǎn)品運行的過程中,法律保留追究未違反操作或使用規(guī)程的使用者刑事責任的可能性,不僅從根本上與罪責自負的原則相悖,而且與人工智能產(chǎn)品設計與生產(chǎn)的初衷不符,即無法真正將人工智能產(chǎn)品使用者從繁復勞動中解放出來,無法真正為其減輕負擔。
第二,契合使用者對人工智能產(chǎn)品的合理信賴。在人工智能產(chǎn)品的設計、生產(chǎn)到投入市場出售的整個環(huán)節(jié)中,生產(chǎn)者都應嚴格遵循法律法規(guī)及相關行業(yè)規(guī)范等的規(guī)定,以確保產(chǎn)品合格,并能夠按照產(chǎn)品承諾與說明來滿足使用者的需求。人工智能產(chǎn)品的使用者基于對法律法規(guī)、人工智能產(chǎn)品行業(yè)規(guī)范及生產(chǎn)者對人工智能產(chǎn)品做出的說明與承諾的信賴,有理由在按照人工智能產(chǎn)品操作或使用規(guī)程使用人工智能產(chǎn)品時,相信其會正常發(fā)揮作用、滿足自己的需求,且不會引發(fā)嚴重危害社會的結果。如果在人工智能產(chǎn)品的使用者未違反操作或使用規(guī)程的情形下,法律仍保留追究其刑事責任的可能性,就等同于迫使使用者預見到人工智能產(chǎn)品可能出現(xiàn)的所有會引發(fā)事故的產(chǎn)品瑕疵并及時做出修正。事實上,對產(chǎn)品瑕疵的預見與修正,理應完全屬于產(chǎn)品生產(chǎn)者的責任,而非使用者的責任。同時,人工智能產(chǎn)品具有較高科技含量和專業(yè)性,人工智能產(chǎn)品的使用者通常不可能具備相應能力來預見和修正產(chǎn)品瑕疵。使用者對人工智能產(chǎn)品的合理信賴理應受到法律的承認與保護。因此,當人工智能產(chǎn)品的使用者按照產(chǎn)品操作或使用規(guī)程使用人工智能產(chǎn)品時,因產(chǎn)品本身所存在的問題而引發(fā)了嚴重危害社會的結果,可能承擔刑事責任的主體絕非使用者。而人工智能產(chǎn)品的生產(chǎn)者基于法律法規(guī)、行業(yè)規(guī)范或者對產(chǎn)品的說明與承諾等,有義務在一定范圍內(nèi)預見到產(chǎn)品瑕疵,并有義務對該瑕疵進行修正,如果生產(chǎn)者違反了上述義務并因此引發(fā)嚴重危害社會的結果,法律讓其為此承擔相應刑事責任應無異議。
第三,契合“支配原則”?!帮L險屬于誰的管轄范圍,誰便需要對風險及由此產(chǎn)生的結果來負責。” 對普通產(chǎn)品而言,脫離生產(chǎn)者的產(chǎn)品通常不再為生產(chǎn)者所支配。 也即產(chǎn)品生產(chǎn)領域受產(chǎn)品生產(chǎn)者支配,在此領域產(chǎn)生的風險應由產(chǎn)品生產(chǎn)者負責;產(chǎn)品使用領域受產(chǎn)品使用者支配,在此領域產(chǎn)生的風險應由產(chǎn)品使用者負責。例如,普通汽車駕駛員在道路上逆行并撞死行人的行為,并不受汽車生產(chǎn)者的支配,而僅受駕駛員的支配。換言之,對普通汽車而言,除汽車的固有瑕疵(如剎車系統(tǒng)故障)造成的事故之外,因不當駕駛行為造成的事故與汽車生產(chǎn)者并無關聯(lián),即普通汽車的生產(chǎn)者僅需保證汽車本身的質量安全,而并無義務確保汽車在行駛過程中遵守交通運輸管理法規(guī)。后者為汽車駕駛員的責任與義務。汽車本身的質量安全屬于汽車生產(chǎn)領域的問題,受汽車生產(chǎn)者支配;汽車在行駛過程中是否遵守交通運輸管理法規(guī)屬于汽車使用領域的問題,受汽車駕駛員支配。然而,基于人工智能產(chǎn)品的自身特點,人工智能產(chǎn)品的使用領域仍受生產(chǎn)者支配,這一點與普通產(chǎn)品存在本質區(qū)別。仍以自動駕駛汽車為例,自動駕駛汽車的生產(chǎn)者除需保證汽車本身的質量安全外,還需保證汽車在自動行駛過程中遵守交通運輸管理法規(guī)。在自動駕駛汽車的使用者未違反操作或使用規(guī)程的情況下,自動駕駛汽車在行駛過程中違反交通運輸管理法規(guī)的行為受自動駕駛程序系統(tǒng)的控制支配,也即受自動駕駛汽車生產(chǎn)者的控制支配。 自動駕駛汽車違反交通運輸管理法規(guī)的行為,并非由使用者的不當操作導致,而是由自動駕駛程序系統(tǒng)本身的瑕疵導致,也即自動駕駛汽車在生產(chǎn)者支配的領域內(nèi)違反了交通規(guī)則。由此產(chǎn)生的一切刑事責任,理應由在此領域具有支配力的生產(chǎn)者承擔而非由不具有支配力的使用者承擔。簡言之,人工智能產(chǎn)品的使用者在產(chǎn)品使用領域的支配力度遠低于普通產(chǎn)品使用者在產(chǎn)品使用領域的支配力度,人工智能產(chǎn)品生產(chǎn)者所實施的行為不僅可以在產(chǎn)品生產(chǎn)領域具有支配力,而且其支配力可以延伸至產(chǎn)品使用領域。由此,在人工智能生產(chǎn)者具有支配力的產(chǎn)品使用領域產(chǎn)生的刑事責任,應由人工智能產(chǎn)品的生產(chǎn)者承擔。
涉人工智能產(chǎn)品犯罪的認定標準
筆者認為,在認定涉人工智能產(chǎn)品犯罪時,人工智能產(chǎn)品的生產(chǎn)者違反注意義務是其構成相應過失犯罪的必要而非充分條件。同時,人工智能產(chǎn)品的生產(chǎn)者違反結果預見義務是認定其違反注意義務的必要而非充分條件。一方面,認定人工智能產(chǎn)品的生產(chǎn)者構成相應過失犯罪的前提是其違反了注意義務;認定人工智能產(chǎn)品的生產(chǎn)者違反注意義務的前提是其違反了對危害結果的預見義務。另一方面,人工智能產(chǎn)品的生產(chǎn)者違反了注意義務,并不必然構成相應的過失犯罪;人工智能產(chǎn)品的生產(chǎn)者違反了對危害結果的預見義務,也并不必然被認定為違反了注意義務。刑法在確立認定人工智能產(chǎn)品生產(chǎn)者成立過失犯罪的標準時,既要從正面確立判定人工智能產(chǎn)品生產(chǎn)者成立過失犯罪的條件,又要從反面限縮人工智能產(chǎn)品生產(chǎn)者成立過失犯罪的范圍。
一、違反注意義務是構成過失犯罪的必要非充分條件
人工智能產(chǎn)品的生產(chǎn)者違反相應的注意義務是認定其構成過失犯罪的必要條件?!盀榱顺闪⑦^失,違反法律上認為必要的注意義務是必要的?!?事實上,人工智能產(chǎn)品的生產(chǎn)者所應遵守的注意義務不僅限于法律法規(guī)所規(guī)定的注意義務,還應包括人工智能行業(yè)規(guī)范與生產(chǎn)者對人工智能產(chǎn)品所做出的承諾。具體緣由筆者已在相關文章中進行過詳盡說明, 此處不作贅述。當人工智能產(chǎn)品的生產(chǎn)者未違反法律法規(guī)、行業(yè)規(guī)范、對產(chǎn)品的承諾所規(guī)定的注意義務時,對于人工智能產(chǎn)品引發(fā)的嚴重危害社會的結果,其不可能承擔過失犯罪的刑事責任。這是由過失犯罪與意外事件的本質區(qū)別所決定的。根據(jù)《刑法》第16條之規(guī)定,行為在客觀上雖然造成了損害結果,但不是出于故意或者過失,而是由于不能抗拒或者不能預見的原因所引起的,不是犯罪。此處所規(guī)定的“不能預見”,即意味著行為人不具有預見可能性,而具有預見可能性是賦予行為人相應注意義務的前提條件。如果行為人對危害結果不具有預見可能性,就意味著行為人無須承擔相應注意義務,更談不上對注意義務的違反。此時,對于行為人的行為在客觀上導致嚴重危害社會的結果,只能以意外事件來認定。從另外一個角度看,盡管人工智能技術經(jīng)歷了六十余年的發(fā)展,但仍處于起步或發(fā)展的初期階段。如果我們將這些風險全部讓人工智能產(chǎn)品的生產(chǎn)者承擔,顯然既不公平也不妥當,且會阻礙人工智能技術的發(fā)展?!叭绻麤]有證據(jù)證明任何人有注意義務的違反的話,雖然會出現(xiàn)責任的空白地帶,但是鑒于刑法的謙抑精神,應該將這種空白地帶讓社會全體來承擔?!?這種無法預測、無法避免風險的現(xiàn)實化,即屬于“被允許的危險”。 此時,人工智能產(chǎn)品的生產(chǎn)者無須為此承擔過失犯罪的刑事責任。就此而言,筆者認為,人工智能產(chǎn)品的生產(chǎn)者違反相應的注意義務是認定其構成過失犯罪的必要條件,也即認定人工智能產(chǎn)品的生產(chǎn)者構成過失犯罪的前提是其違反了相應的注意義務。
人工智能產(chǎn)品的生產(chǎn)者違反相應的注意義務并非認定其構成過失犯罪的充分條件?!氨M管行為人侵害了法益,但仍需考察,其所違反的規(guī)范是否是用于保護該類法益。若否,則規(guī)范的違反并沒有對被害人造成相關的危險?!?原因在于,刑法規(guī)范的目的與其他法律規(guī)范的目的并不完全一致。例如,根據(jù)《道路交通安全法》第51條之規(guī)定,機動車行駛時,駕駛人、乘坐人員應當按規(guī)定使用安全帶。立法者設立此規(guī)定的目的主要是保護駕駛人及乘坐人員的人身安全。假如在駕駛人除未按規(guī)定使用安全帶,其他駕駛行為均完全符合規(guī)范的情況下,由于躲避逆向行駛的車輛而撞死行人,駕駛員理應不承擔任何有關交通肇事罪的刑事責任。在此事故中,該駕駛員違反規(guī)范的行為與撞死行人的結果并無直接關聯(lián),因此也就不應對此次交通事故承擔刑事責任。同理,當人工智能產(chǎn)品生產(chǎn)者違反的注意義務與人工智能產(chǎn)品所引發(fā)的危害結果并無直接關聯(lián)時,也不應對人工智能產(chǎn)品的生產(chǎn)者以過失犯罪論處。此時,我們無法將危害結果歸因于人工智能產(chǎn)品的生產(chǎn)者所實施的行為,也就無法將相關刑事責任歸責于行為人。所以,人工智能產(chǎn)品的生產(chǎn)者違反相應的注意義務并非認定其構成過失犯罪的充分條件,也即人工智能產(chǎn)品的生產(chǎn)者即使違反了相應的注意義務,也完全存在不承擔過失犯罪刑事責任的可能性。
二、違反結果預見義務是被認定為違反注意義務的必要非充分條件
人工智能產(chǎn)品的生產(chǎn)者違反結果預見義務是其被認定為違反了注意義務的必要條件。依上文所述,根據(jù)《刑法》第16條之規(guī)定,行為在客觀上雖然造成了損害結果,但是不是出于故意或者過失,而是由于不能預見的原因所引起的,不是犯罪,應當按照意外事件認定。此規(guī)定揭示了疏忽大意過失犯罪與意外事件的本質區(qū)別。當行為人負有結果預見義務,卻因為疏忽大意而未預見并導致法定危害結果發(fā)生時,則構成疏忽大意的過失犯罪。反之,即使行為人因為疏忽大意而未預見并導致法定危害結果發(fā)生,若其不負有結果預見義務,則仍不構成疏忽大意的過失犯罪,而僅按照意外事件處理。由此可見,刑法認定行為人負有結果預見義務的前提是行為人能夠預見,即具有預見可能性。在行為人“不能預見”的條件下,無須為客觀上造成的損害結果負刑事責任?!胺梢笮袨槿说牧x務是以行為人能夠履行義務為前提的。所以,預見義務是以預見可能為前提的。如果行為人沒有預見能力,則不要求其必須履行負有的義務?!?具體到對人工智能產(chǎn)品的生產(chǎn)者過失犯罪的認定,刑法認定人工智能產(chǎn)品的生產(chǎn)者違反了注意義務的前提是其違反了結果預見義務,而認定其違反了結果預見義務的前提又是具有預見可能性。反過來說,當人工智能產(chǎn)品的生產(chǎn)者不具有預見可能性時,刑法就不可能認定其違反了結果預見義務,更不可能認定其違反了注意義務。從這個意義上來說,人工智能產(chǎn)品的生產(chǎn)者違反結果預見義務是其被認定為違反了注意義務的必要條件,也即人工智能產(chǎn)品的生產(chǎn)者違反結果預見義務是其被認定違反了注意義務的前提。
需要指出的是,人工智能產(chǎn)品的生產(chǎn)者違反結果預見義務并非意味著其被認定為違反了注意義務的充分條件。根據(jù)舊過失論的觀點,注意義務的內(nèi)容一般認為是違反結果預見義務;根據(jù)新過失論的觀點,注意義務的核心內(nèi)容是結果避免義務,但是結果預見可能性是履行結果避免義務的前提;根據(jù)新新過失論,注意義務的核心內(nèi)容也是結果避免義務,但其不要求對結果具有具體的預見可能性,僅需具有抽象的預見可能性。 由此可見,新過失論與新新過失論存在較多的共通之處,二者存在的主要區(qū)別在于對結果的預見可能性是指具體預見可能性還是抽象預見可能性。分析上述有關過失犯罪認定理論的各種學說,可以發(fā)現(xiàn),新新過失論所提出的對結果的抽象預見可能性內(nèi)容模糊不清,缺乏可操作性; 而舊過失論僅強調(diào)結果預見義務,忽視了結果避免義務,可能會導致對行為人違反注意義務的認定標準過低,并進而擴大過失犯罪的成立范圍,也不足取。筆者認為,在判定人工智能產(chǎn)品的生產(chǎn)者是否違背了注意義務方面,新過失論頗具可取之處。其一,人工智能時代的社會也是風險社會,物質文明的發(fā)展帶來了社會風險的急劇增加。但人類不能因噎廢食,人類為了實現(xiàn)生活的方便快捷,就必須在一定程度上容忍風險。事實上,在現(xiàn)代文明社會中,諸多風險都是可預見但卻無法完全避免的。例如,汽車等高速交通工具的運行,必然內(nèi)含致人死傷的風險,但是人們所能做的,只是規(guī)范汽車等交通工具的駕駛行為,卻無法從根本上杜絕交通事故的發(fā)生。在人工智能產(chǎn)品領域亦是如此。對人工智能產(chǎn)品的生產(chǎn)者而言,其對人工智能產(chǎn)品所造成的危害結果,在絕大多數(shù)情況下是可以預見的,但卻無法做到完全避免危害結果的發(fā)生。新過失論對結果避免義務的強調(diào),將人工智能產(chǎn)品的生產(chǎn)者雖預見到危害結果但卻無法避免危害結果的情形排除在成立過失犯罪的可能范圍之外,從一定程度上避免了對人工智能產(chǎn)品的生產(chǎn)者過失犯罪認定范圍過大的問題出現(xiàn)。其二,根據(jù)刑法條文規(guī)定,注意義務的內(nèi)容應同時包含結果預見義務與結果避免義務?!缎谭ā返?5條規(guī)定,應當預見自己的行為可能發(fā)生危害社會的結果,因為疏忽大意而沒有預見,或者已經(jīng)預見而輕信能夠避免,以致發(fā)生這種結果的,是過失犯罪。應當看到,由于條文中“沒有預見”之后并未加“的”,這就意味著條文最后的“以致發(fā)生這種結果的”,應是對“疏忽大意”和“輕信避免”兩種情況的統(tǒng)一要求。只是出于簡潔、不重復的條文表達需求,才在“已經(jīng)預見而輕信能夠避免”后面集中表述了一次。事實上,對上述條文的含義進行詳細、完整表述是:應當預見自己的行為可能發(fā)生危害社會的結果,因為疏忽大意而沒有預見,以致發(fā)生這種結果的;或者已經(jīng)預見自己的行為可能發(fā)生危害社會的結果而輕信能夠避免,以致發(fā)生這種結果的,是過失犯罪??梢?,無論是疏忽大意的過失,還是過于自信的過失,成立的前提都是“以致發(fā)生這種結果的”,也即結果的發(fā)生是成立過失犯罪的必備要件。換言之,當行為人未違反結果回避義務而僅違反了結果預見義務,也即當行為人雖然違反了結果預見義務(未預見到危害結果的發(fā)生且并未采取相應措施阻止結果的發(fā)生),卻在偶然因素的作用下避免了結果的發(fā)生時,行為人仍不可能被認定為過失犯罪。綜上,筆者認為,根據(jù)刑法的規(guī)定,行為人成立過失犯罪所違背的注意義務內(nèi)容同時包含結果預見義務與結果回避義務。因此,在認定人工智能產(chǎn)品的生產(chǎn)者是否違反注意義務并進而構成過失犯罪時,新過失論具有重要的參考價值。根據(jù)新過失論,人工智能產(chǎn)品生產(chǎn)者的結果回避義務是其所要履行的注意義務的核心,而結果預見義務僅是其所要履行的結果回避義務的前提?!耙钥陀^預見義務的面目出現(xiàn)的預見可能性,只是作為結果避免義務的前提而存在,或者確切地說,是作為履行安全標準的必要前提,它本身并不具有獨立的意義。” 即使人工智能產(chǎn)品的生產(chǎn)者違反了結果預見義務,只要不能證明其違反了結果回避義務,就不能認定其違反了注意義務。例如,自動駕駛汽車在綠燈亮起時超速經(jīng)過一個路口,撞上超速行駛并闖紅燈經(jīng)過該路口的酒后騎摩托車的甲,導致甲死亡。在不討論哪一方負事故全部或者主要責任的情況下,我們也完全有理由判定,盡管自動駕駛汽車的生產(chǎn)者設計的程序有瑕疵(使自動駕駛汽車超速行駛),且其能夠預見到超速行駛的自動駕駛汽車可能會導致交通事故發(fā)生,但是由于在這個事故中,結果回避可能性無法得到證明(或者說根本不具有結果回避可能性),自動駕駛汽車的生產(chǎn)者違背結果回避義務也就無從談起,所以其不可能成立過失犯罪。因此,人工智能產(chǎn)品的生產(chǎn)者違反結果預見義務并非認定其違反了注意義務的充分條件,而只是認定其違反了注意義務的前提。
涉人工智能產(chǎn)品犯罪性質認定的困境與解決進路
產(chǎn)品犯罪應被劃分為產(chǎn)品生產(chǎn)領域與產(chǎn)品使用領域的犯罪。但是,基于人工智能產(chǎn)品的特點,產(chǎn)品生產(chǎn)領域與產(chǎn)品使用領域的界限并非涇渭分明,這也就導致在認定涉人工智能產(chǎn)品犯罪的性質時存在一定困惑,并亟須我們?yōu)榇藢ふ液线m的解決進路。
一、涉人工智能產(chǎn)品犯罪性質認定的困惑
在認定涉人工智能產(chǎn)品犯罪的性質時,我們可以以人工智能產(chǎn)品生產(chǎn)領域作為基準來確定犯罪性質,或者以人工智能產(chǎn)品使用領域作為基準來確定犯罪性質。但基于涉人工智能產(chǎn)品犯罪的特殊性,上述認定方式會不可避免地導致一定的“尷尬”處境。
1.涉人工智能產(chǎn)品犯罪性質認定的具體方式
正如前述,與普通產(chǎn)品不同,人工智能產(chǎn)品被投入使用之后,其在產(chǎn)品使用領域作用的發(fā)揮主要仍依賴于程序系統(tǒng)的控制。換言之,人工智能產(chǎn)品生產(chǎn)者的行為在產(chǎn)品使用領域仍會發(fā)揮支配作用。這就使得人工智能產(chǎn)品生產(chǎn)者的行為在產(chǎn)品生產(chǎn)領域和產(chǎn)品使用領域都會發(fā)揮支配作用。對于完全屬于人工智能產(chǎn)品生產(chǎn)領域的刑事責任,歸屬于人工智能產(chǎn)品的生產(chǎn)者并按照相應產(chǎn)品犯罪認定顯然不存在任何障礙。關鍵問題是,對于屬于人工智能產(chǎn)品使用領域過失犯罪(在使用者未違反操作或使用規(guī)程的情形下)的刑事責任,雖然筆者已在上文中論述了將其歸屬于人工智能產(chǎn)品生產(chǎn)者的合理性,但對其適用刑法分則的何種罪名則需要進行探討。在這種情形下,確定人工智能產(chǎn)品生產(chǎn)者過失犯罪的罪名,可能依循的路徑如下。
第一,以產(chǎn)品生產(chǎn)領域為基準確定人工智能產(chǎn)品生產(chǎn)者過失犯罪的性質。人工智能產(chǎn)品在被使用時,其作用的發(fā)揮依賴于程序系統(tǒng),而控制人工智能產(chǎn)品發(fā)揮作用的程序系統(tǒng)是由人工智能產(chǎn)品的生產(chǎn)者所設置的。人工智能產(chǎn)品的程序系統(tǒng)本身就屬于人工智能產(chǎn)品不可分離的部分,缺少了程序系統(tǒng)的人工智能產(chǎn)品無異于“廢銅爛鐵”,無法為人類生產(chǎn)或生活提供任何幫助。例如,自動駕駛汽車與普通汽車的本質區(qū)別在于,自動駕駛汽車擁有自動駕駛程序系統(tǒng)。所以,當自動駕駛汽車在自動駕駛程序系統(tǒng)的控制下違反交通運輸管理法規(guī)并引發(fā)重大交通事故時,在本質上與普通汽車剎車系統(tǒng)出現(xiàn)問題而引發(fā)重大交通事故無異。因此,對自動駕駛汽車的生產(chǎn)者以相關產(chǎn)品犯罪來認定具有合理之處。在此意義上而言,以產(chǎn)品生產(chǎn)領域為基準確定人工智能產(chǎn)品生產(chǎn)者過失犯罪的性質,具有一定合理性。
第二,以產(chǎn)品使用領域為基準確定人工智能產(chǎn)品生產(chǎn)者過失犯罪的性質?!吧a(chǎn)”與“使用”兩個詞語具有截然不同的含義?!吧a(chǎn)”指的是人們使用工具來創(chuàng)造各種生產(chǎn)資料和生活資料;“使用”指的是使人員、器物、資金等為某種目的服務。 人工智能產(chǎn)品的生產(chǎn)與人工智能產(chǎn)品的使用顯然也應具備截然不同的含義。生產(chǎn)者制造人工智能產(chǎn)品時的行為便屬于生產(chǎn)行為;人們?yōu)榱诉_到某種目的而利用人工智能產(chǎn)品的行為便屬于使用行為。刑法分則認定行為人構成不同犯罪的標準是行為人的行為和主觀罪過。在人工智能生產(chǎn)者主觀罪過確定為犯罪過失的情況下,刑法分則認定其構成何種犯罪,顯然是以其行為為標準的。在此意義上而言,將人工智能產(chǎn)品在使用領域引發(fā)嚴重危害社會結果的過失犯罪刑事責任歸屬于人工智能產(chǎn)品的生產(chǎn)者是具有充足根據(jù)的,但這并不表明,按照產(chǎn)品生產(chǎn)領域所涉及的罪名來對人工智能產(chǎn)品生產(chǎn)者的過失犯罪行為進行定性也具有合理性。應當看到,人工智能產(chǎn)品在使用領域引發(fā)嚴重危害社會結果的行為本質是“使用”而非“生產(chǎn)”。例如,自動駕駛汽車引發(fā)交通事故,屬于在產(chǎn)品使用領域發(fā)生的事故,雖然自動駕駛汽車在此情況下仍受到程序系統(tǒng)(也即生產(chǎn)者行為的延伸)控制,也即以產(chǎn)品使用領域為基準確定人工智能產(chǎn)品生產(chǎn)者過失犯罪的性質具有一定合理之處,但如果按照刑法分則中有關汽車使用領域所可能涉及的罪名(如交通肇事罪)認定似乎又存在很大的不合理性。
2.涉人工智能產(chǎn)品犯罪性質認定的“尷尬”處境
但應當看到,上述兩種路徑仍存在難以解決的問題,從而使得刑法認定人工智能產(chǎn)品生產(chǎn)者過失犯罪行為的性質時面臨“尷尬”處境。
第一,以產(chǎn)品生產(chǎn)領域為基準確定人工智能產(chǎn)品生產(chǎn)者過失犯罪的性質時,刑法分則中可能得以適用的罪名似乎只有生產(chǎn)偽劣產(chǎn)品罪等犯罪的罪名,但是,以這些罪名認定顯然無法準確、合理評價生產(chǎn)者所實施的犯罪行為侵犯的法益(客體)與生產(chǎn)者的主觀罪過。其一,無法準確、合理評價生產(chǎn)者所實施的犯罪行為侵犯的法益(客體)。生產(chǎn)偽劣產(chǎn)品罪等是刑法分則第三章第一節(jié)所規(guī)定的罪名。刑法分則第三章規(guī)定的是“破壞社會主義市場經(jīng)濟秩序罪”。眾所周知,我國刑法分則主要根據(jù)犯罪行為所侵犯的客體性質的不同,將所有犯罪劃分為十大類。 人工智能產(chǎn)品使用領域中的事故,在大多數(shù)情況下,屬于危害公共安全或者侵犯公民人身權利、民主權利的犯罪,也有可能屬于危害國家安全的犯罪。對生產(chǎn)者在人工智能產(chǎn)品使用領域的過失犯罪行為,以第三章第一節(jié)所規(guī)定的生產(chǎn)偽劣產(chǎn)品罪等犯罪加以認定,存在無法準確、合理評價生產(chǎn)者犯罪行為所侵犯的法益的問題。例如,自動駕駛汽車違反交通運輸管理法規(guī)引發(fā)重大交通事故,實質上是危害了公共安全,而非破壞了社會主義市場經(jīng)濟秩序。而生產(chǎn)、銷售偽劣商品罪這一節(jié)的刑法條文“著重處罰的是違背誠信原則、生產(chǎn)、銷售不符合安全標準、衛(wèi)生標準的產(chǎn)品這一行為本身”。 如果對自動駕駛汽車生產(chǎn)者以生產(chǎn)偽劣產(chǎn)品罪認定,不能準確地評價其行為所侵犯的法益也無法準確、合理評價生產(chǎn)者的主觀罪過。生產(chǎn)偽劣產(chǎn)品罪等屬于故意犯罪,且具有謀取非法利益的主觀目的。我們在此探討的是人工智能產(chǎn)品生產(chǎn)者過失犯罪的性質,應當看到,人工智能產(chǎn)品的生產(chǎn)者對人工智能產(chǎn)品引發(fā)的嚴重危害社會的結果,顯然是持“否定”心態(tài)的,也即此結果的發(fā)生完全違背了人工智能產(chǎn)品生產(chǎn)者的主觀意志。對危害結果是否持否定心態(tài),是區(qū)分行為人主觀罪過是故意還是過失的重要標準?!胺缸镏饔^要件是犯罪成立所必須具備的主觀條件,具有必要性。” 同時,犯罪主觀要件對于區(qū)分罪與非罪、此罪與彼罪以及對量刑輕重都具有重要影響。 基于行為人主觀罪過的上述重要作用,我們對于行為人在過失心態(tài)支配下所實施的犯罪行為,絕不可能以故意作為主觀構成要件的犯罪來加以認定。在此需要說明的是,人工智能產(chǎn)品的生產(chǎn)者在生產(chǎn)過程中意識到自己的行為違反了法律法規(guī)、行業(yè)規(guī)范等,但出于加快工作進度等目的,抱著不會引發(fā)事故的僥幸心理(此前多次類似情況都未引發(fā)嚴重后果)制造出人工智能產(chǎn)品并投入市場,最終該人工智能產(chǎn)品引發(fā)了嚴重危害社會的結果,此處人工智能產(chǎn)品生產(chǎn)者的主觀罪過應該認定為過失(過于自信的過失)而非故意。雖然此處生產(chǎn)者可謂“明知故犯”,即明知自己的行為違反了法律法規(guī)、行業(yè)規(guī)范等,仍然繼續(xù)實施相應的行為,似乎是在放任嚴重危害社會的結果發(fā)生而應被認定為間接故意犯罪。但實際上,人工智能產(chǎn)品的生產(chǎn)者對自己的行為不會引發(fā)嚴重危害社會的結果抱有“僥幸”心理,意味著其希望嚴重危害社會的結果不發(fā)生,即其對此結果持“否定”的心態(tài)。換言之,人工智能產(chǎn)品引發(fā)嚴重危害社會的結果,是違背人工智能產(chǎn)品生產(chǎn)者的意志的。由此可見,即使人工智能產(chǎn)品生產(chǎn)者放任自己的行為違背相關法律法規(guī)、行業(yè)規(guī)范等,也并不等同于其放任自己的行為引發(fā)嚴重危害社會的結果。綜上,對人工智能產(chǎn)品生產(chǎn)者所實施的危害公共安全等的犯罪行為以生產(chǎn)偽劣產(chǎn)品罪等破壞社會主義市場經(jīng)濟秩序的犯罪來認定似乎不妥;對人工智能產(chǎn)品生產(chǎn)者的過失犯罪,用生產(chǎn)偽劣產(chǎn)品罪等故意犯罪來認定似乎也存在不妥之處。
第二,以產(chǎn)品使用領域為基準確定人工智能產(chǎn)品生產(chǎn)者過失犯罪的性質時,相關罪名構成要件中的主體要件可能無法涵括人工智能產(chǎn)品的生產(chǎn)者。例如,智能手術機器人本身存在程序瑕疵,其在協(xié)助醫(yī)生進行手術的過程中出現(xiàn)故障,導致病人死亡的結果發(fā)生。在此過程中,醫(yī)生不存在違反操作或使用規(guī)程的行為,則全部刑事責任都只可能歸屬于智能手術機器人的生產(chǎn)者。在智能手術機器人的生產(chǎn)者存在過失的情況下,應如何認定其犯罪的性質?如果以產(chǎn)品使用領域為基準確定智能手術機器人生產(chǎn)者過失犯罪的性質,則智能手術機器人的生產(chǎn)者應構成醫(yī)療事故罪。但應當看到,醫(yī)療事故罪的犯罪主體應為醫(yī)務人員,而智能手術機器人的生產(chǎn)者顯然不屬于醫(yī)務人員這一范疇。類似情形不勝枚舉,筆者無意在此一一列舉。應當看到,隨著人工智能技術的不斷創(chuàng)新發(fā)展及對人類生產(chǎn)或生活參與程度的不斷提高,人工智能產(chǎn)品引發(fā)事故的領域將會更加廣泛,也即在使用領域可能會觸及更多種類的過失犯罪。而相當程度的過失犯罪只能由特殊主體構成,且人工智能產(chǎn)品的生產(chǎn)者又不屬于這類特殊主體范圍,因此,以產(chǎn)品使用領域為基準確定人工智能產(chǎn)品生產(chǎn)者過失犯罪的性質,會面臨相關罪名構成要件中的主體要件無法涵括人工智能產(chǎn)品生產(chǎn)者的“尷尬”處境。
二、涉人工智能產(chǎn)品犯罪性質認定疑難的解決進路
面臨涉人工智能產(chǎn)品犯罪性質認定的“尷尬”處境,我們亟須尋找合適的解決方式與進路。依筆者之見,以重大責任事故罪來認定上述人工智能產(chǎn)品生產(chǎn)者的過失犯罪行為似乎更為合理。理由有三。其一,以重大責任事故罪來認定上述人工智能產(chǎn)品生產(chǎn)者的過失犯罪行為,解決了適用生產(chǎn)偽劣產(chǎn)品罪等罪名無法準確評價生產(chǎn)者犯罪行為所侵犯法益(客體)的問題。由筆者在上文所述可知,涉人工智能產(chǎn)品犯罪所侵犯的法益大多為公共安全,而重大責任事故罪屬于刑法分則第二章“危害公共安全罪”中的罪名,該條文所規(guī)制的是危害公共安全的犯罪行為,而生產(chǎn)偽劣產(chǎn)品罪等犯罪條文所規(guī)制的是破壞社會主義市場經(jīng)濟秩序的犯罪行為。顯而易見,以重大責任事故罪來評價人工智能產(chǎn)品生產(chǎn)者的過失犯罪行為更具有合理性。其二,以重大責任事故罪來認定上述人工智能產(chǎn)品生產(chǎn)者的過失犯罪行為,解決了適用生產(chǎn)偽劣產(chǎn)品罪等罪名無法準確評價生產(chǎn)者主觀罪過的問題。本文所探討的是人工智能生產(chǎn)者主觀罪過為過失的犯罪行為,生產(chǎn)偽劣產(chǎn)品罪等犯罪均為故意犯罪,二者存在不可調(diào)和的矛盾之處。而重大責任事故罪的主觀方面表現(xiàn)為過失,以此罪名評價人工智能產(chǎn)品生產(chǎn)者的過失犯罪行為顯然更為合理。其三,以重大責任事故罪來認定上述人工智能產(chǎn)品生產(chǎn)者的過失犯罪行為,解決了相關罪名構成要件中的主體要件無法涵括人工智能產(chǎn)品生產(chǎn)者的問題。根據(jù)《刑法》第134條第1款及2015年12月14日最高人民法院、最高人民檢察院發(fā)布的《關于辦理危害生產(chǎn)安全刑事案件適用法律若干問題的解釋》之規(guī)定,重大責任事故罪的主體為對生產(chǎn)、作業(yè)負有組織、指揮或者管理職責的負責人、管理人員、實際控制人、投資人等人員,以及直接從事生產(chǎn)、作業(yè)的人員。實際上,重大責任事故罪的主體范圍已經(jīng)涵括了對安全事故負有責任以及其他從事生產(chǎn)、作業(yè)的所有人員。 因此,以重大責任事故罪來評價人工智能產(chǎn)品生產(chǎn)者的過失犯罪行為頗具合理之處。
筆者在此需要補充說明兩點。其一,盡管人工智能產(chǎn)品引發(fā)事故的時空范圍應屬于產(chǎn)品使用領域,人工智能產(chǎn)品的生產(chǎn)者所實施行為的時空范圍應屬于產(chǎn)品生產(chǎn)領域,但是兩個時空之間存在密切的關聯(lián),即人工智能產(chǎn)品的生產(chǎn)者所實施行為與人工智能產(chǎn)品引發(fā)的事故之間存在因果關系,完全符合重大責任事故罪條文關于“在生產(chǎn)、作業(yè)中違反有關安全管理的規(guī)定,因而發(fā)生重大傷亡事故或者造成其他嚴重后果”的規(guī)定。人工智能產(chǎn)品的生產(chǎn)者所實施的行為與人工智能產(chǎn)品引發(fā)的事故二者之間雖存在時空上的分離,但不會成為將人工智能產(chǎn)品生產(chǎn)者行為認定為重大責任事故罪的障礙。事實上,刑法中行為與結果之間存在分離的情況有很多,只要行為與結果之間存在因果關系,都不會影響到對行為人所實施行為的認定。同時,人工智能產(chǎn)品的生產(chǎn)者所實施的行為屬于產(chǎn)品生產(chǎn)領域的行為,也即是“在生產(chǎn)、作業(yè)中”,完全符合成立重大責任事故罪的時空條件。其二,重大責任事故罪的主體范圍應將單位涵括其中。我國刑法以懲罰自然人犯罪為原則,以懲罰單位犯罪為例外,單位犯罪必須以刑法分則的明文規(guī)定為前提?!缎谭ā返?34條第1款“重大責任事故罪”的條文并未規(guī)定單位可以構成本罪,也即該罪主體目前只包括自然人而不包括單位。但是,“工業(yè)社會經(jīng)濟活動的現(xiàn)代風險,從來就不是個人可以控制及負責的,而是由許多人的共同作用所引起”。 現(xiàn)代社會中的高科技產(chǎn)品,包括人工智能產(chǎn)品等極具專業(yè)性、精密性、復雜性,絕非個人以傳統(tǒng)作坊模式所能生產(chǎn)、制造出來的產(chǎn)物,而是需要多人共同協(xié)作完成。因此,在重大責任事故罪的主體范圍中增加單位這一犯罪主體,似乎更能契合人工智能時代的特點與需求。
結 語
綜上所述,筆者認為,人工智能產(chǎn)品的使用者在使用產(chǎn)品時所應遵守的注意義務的全部內(nèi)容即為遵循產(chǎn)品操作或使用規(guī)程,當使用者未違反產(chǎn)品操作或使用規(guī)程時,對于人工智能產(chǎn)品引發(fā)的嚴重危害社會的結果,可能承擔刑事責任的主體應為人工智能產(chǎn)品的生產(chǎn)者而非使用者。
認定人工智能產(chǎn)品的生產(chǎn)者構成相應過失犯罪的前提是其違反了注意義務;認定人工智能產(chǎn)品的生產(chǎn)者違反注意義務的前提是其違反了對危害結果的預見義務。也即人工智能產(chǎn)品的生產(chǎn)者違反了注意義務,并不必然構成相應的過失犯罪;人工智能產(chǎn)品的生產(chǎn)者違反了對危害結果的預見義務,也并不必然被認定為違反了注意義務。因此,在認定涉人工智能產(chǎn)品犯罪時,人工智能產(chǎn)品的生產(chǎn)者違反注意義務是其構成相應過失犯罪的必要而非充分條件;人工智能生產(chǎn)者違反結果預見義務是認定其違反注意義務的必要而非充分條件。
涉人工智能產(chǎn)品犯罪性質認定的“尷尬”處境是指:以產(chǎn)品生產(chǎn)領域為基準確定人工智能產(chǎn)品生產(chǎn)者過失犯罪的性質時,如果以刑法分則中生產(chǎn)偽劣產(chǎn)品罪等罪名,顯然無法準確、合理評價生產(chǎn)者所實施的犯罪行為侵犯的法益(客體)與生產(chǎn)者的主觀罪過;以產(chǎn)品使用領域為基準確定人工智能產(chǎn)品生產(chǎn)者過失犯罪的性質時,許多罪名構成要件中的主體要件可能無法將人工智能產(chǎn)品生產(chǎn)者涵括其中。就此而言,筆者認為,以重大責任事故罪認定人工智能產(chǎn)品生產(chǎn)者的過失犯罪行為,既解決了適用生產(chǎn)偽劣產(chǎn)品罪等罪名無法準確評價生產(chǎn)者犯罪行為所侵犯法益(客體)、生產(chǎn)者主觀罪過的問題,也解決了相關罪名構成要件中的主體要件無法將人工智能產(chǎn)品生產(chǎn)者涵括其中的問題。(本文來源于《華東政法大學學報》2021年第1期)
編輯:海洋