■鄭渝川
“當無人駕駛汽車、殘疾人服務(wù)機器人、掃地類清潔機器人等越來越多走入尋常人家,伴隨而來的法律問題也值得人深思。在這本《誰為機器人的行為負責?》中,作者就機器人違法犯罪及侵權(quán)行為的法律責任確定,以及機器人對現(xiàn)代法學(xué)體系中的若干重要內(nèi)容帶來的挑戰(zhàn),進行了深入探討。”
機器人交易員的行為應(yīng)該由誰來承擔?傳統(tǒng)的法律將機器人僅僅作為人類互動的工具或方式,很顯然,所有者、使用者要對機器(人)的行為負責。但事情遠遠沒有這么簡單。
1990年圣達菲學(xué)院機器人錦標賽開賽以來,科學(xué)家以復(fù)制人類對話、討價還價為目的,為機器人編程,建立起一個完全由機器人構(gòu)成的市場。有趣的是,這樣一個機器人市場,越來越接近于人類市場,接近于經(jīng)濟學(xué)家所說的競爭性均衡。2008年金融危機以前,賓夕法尼亞大學(xué)和雷曼兄弟就曾資助過機器人編程的自動化交易項目。最近十年來的技術(shù)進展,已經(jīng)讓機器人應(yīng)用和自動化人工智能體經(jīng)過多次迭代,越來越多地被應(yīng)用在包括金融投資在內(nèi)的工作和生活場景之中。未來,在智能機器輔助設(shè)備的基礎(chǔ)上,真正意義上的機器人交易員將因為具備深度學(xué)習(xí)能力,可以脫離初始算法而進行靈活反應(yīng),從而替代人類交易員。
但目前,法律體系還沒有為此做好準備。如果我們始終將機器人界定為工具,也會出現(xiàn)責任分攤難題。比如機器人交易員因為計算錯誤等原因,執(zhí)行了錯誤的指令而造成了客戶資產(chǎn)損失,很可能面臨無人負責的窘境。
類似的責任難題,還出現(xiàn)在無人載具技術(shù)應(yīng)用上。無人駕駛汽車和智能汽車共享近年來發(fā)展很快。世界上每年都有大量的道路交通事故發(fā)生,會造成相當數(shù)量的人員傷亡,并因事故引發(fā)擁堵,加大能源消耗、影響經(jīng)濟運轉(zhuǎn)效率。因此,這些廠商和投資機構(gòu)為游說無人駕駛汽車、智能汽車共享獲得立法許可,通常會致力于宣揚其安全性,認為這將大大減少事故的發(fā)生。可問題是,無人駕駛汽車和智能汽車共享仍然無法徹底消除事故,并且在機器人的完全控制下發(fā)生事故,責任仍將難以界定。究竟是無人駕駛汽車的設(shè)計者、技術(shù)專利擁有者、制造商負責,還是必須由肇事汽車的所有者、操作者承擔?
除了責任歸屬,還有責任大小的界定。包括無人駕駛汽車和智能汽車共享在內(nèi),智能機器、機器人如果造成侵權(quán)傷害,無論是裁定其所有者或是設(shè)計、開發(fā)者承擔責任,賠償額過低,顯然不合理,還可能使得開發(fā)者和使用者不去關(guān)注侵權(quán)傷害的風險問題;但要是賠償額很高,每一單要賠償天文數(shù)字,機器人領(lǐng)域的技術(shù)開發(fā)、商業(yè)應(yīng)用、項目投資恐怕將馬上停止。沒有人能夠擔負得起無止境的安全賠償責任。
上海人民出版社近日引進出版了長期致力于人工智能與法律、網(wǎng)絡(luò)理論、機器人學(xué)與信息技術(shù)法研究的意大利都市大學(xué)法學(xué)院教授烏戈·帕加羅所著的《誰為機器人的行為負責?》一書。這本書基于各國刑法、合同法和侵權(quán)法的框架,提出了27種假設(shè)情況,就機器人違法犯罪及侵權(quán)行為的法律責任確定,以及機器人對現(xiàn)代法學(xué)體系中的若干重要內(nèi)容帶來的挑戰(zhàn),進行了深入探討。
全書開篇首先討論了管理機器人技術(shù)的設(shè)計、制造、供應(yīng)和使用方面的原則、概念、法律推理方法。機器人科技、風險與倫理,很大程度上來源于科幻文學(xué)和影視作品,一些作品就成功揭示過機器人的潛在威脅以及因此帶來的倫理困境。科幻作家阿西莫夫在其作品中提供了簡單化的機器人三定律,后來又補充了零定律。正因此,一些法學(xué)家在還沒有出現(xiàn)有意識、具備深度學(xué)習(xí)能力的機器人之前,就致力于將阿西莫夫的法則與現(xiàn)有法律規(guī)定結(jié)合起來,分別就機器人法律豁免、過失、法律嚴格責任進行探討。而近年來,隨著自動化設(shè)備、智能輔助設(shè)備等“準機器人”被越來越多地應(yīng)用于醫(yī)療等領(lǐng)域,已經(jīng)開始出現(xiàn)機器、機器人責任界定和分攤的爭議。
目前而言,機器人承擔責任的三個法律領(lǐng)域,分別是刑法、合同法和侵權(quán)法。先來看刑法領(lǐng)域。如果機器人涉及犯罪,即在其自由意志驅(qū)動下實施了針對人的暴力行為,這當然應(yīng)當從涉事機器人的設(shè)計機制、程序操作以及犯罪行為獲利方,去分攤責任。也就是說,如果一款機器人被設(shè)計出來就是用來實施暴力行為的,比如搶劫,設(shè)計者顯然需要承擔責任。而設(shè)計、制造時沒有灌輸犯罪意圖,但在制造或使用機器人時存在過失,最終導(dǎo)致犯罪行為的產(chǎn)生,就應(yīng)該按照過失的產(chǎn)生來倒推責任。假定機器人出現(xiàn)技術(shù)、使用等方面的失控,造成了嚴重后果,經(jīng)過追溯分析,認為其失控存在不可預(yù)測性,與設(shè)計者、所有者、操作者的主觀操作無法建立起因果關(guān)系,相關(guān)各方當然能夠在刑法層面獲得責任豁免。
工業(yè)、服務(wù)機器人而今應(yīng)用越來越廣泛,許多居民家庭也購置了陪伴孩子學(xué)習(xí)的機器人,用于娛樂的玩具機器人,輔助殘疾人的服務(wù)機器人,還有各種掃地清潔機器人。這些機器人的共同特點是使用者需要接受廠商設(shè)置的自愿協(xié)議。協(xié)議根據(jù)機器人行為的風險和可預(yù)測程度,設(shè)定廠商和用戶及可能的第三人責任,很大程度上避免廠商因用戶使用不當導(dǎo)致問題、傷害而需承擔的責任。這種責任設(shè)定是否公平,有很大爭議,但廠商和投資人通常認為避免承擔無限賠償責任,才能保護創(chuàng)新發(fā)展。但在協(xié)議機器人的基礎(chǔ)上,將機器人作為代理人,比如本文開篇所提到的機器人交易員,以及在社會生活中起到媒介作用的機器人,都已經(jīng)是作出自行判斷、高度智能化層次的機器人,其應(yīng)用場景不同于普通的協(xié)議機器人。《誰為機器人的行為負責?》這本書建議,應(yīng)通過立法更為清楚地界定協(xié)議機器人、高度智能化機器人在合同法范疇內(nèi)的責任范圍。