“你怎么知道自己是機器人?”
“索菲亞”回答:“你不必擔心我們機器人,你們人類又怎么知道自己就是人類呢?”去年,人工智能機器人“索菲亞”成為全球首位被賦予法律公民身份的機器人。
當前,科學技術巨大進步推動人工智能迅猛發展。人工智能帶來的生產生活方式深刻變革,給法律制度帶來哪些挑戰?現行法治體系又該如何調整和應對?
人工智能生成物是否具有知識產權?
“微明的燈影里,我知道她的可愛的土壤,使我的心靈成為俘虜了……”這段詩句的創作者不是傳統意義上的“人”,而是人工智能產品“微軟小冰”。2017年5月,“微軟小冰”創作詩集《陽光失了玻璃窗》出版,作為歷史上第一部完全由人工智能創作的詩集,它的出版帶來一個新問題——人工智能生成物是否具有知識產權?
中南財經政法大學知識產權研究中心主任曹新明認為,根據現行法律,知識產權成果是指“人類創造出來的成果”,人工智能并不能成為知識產權意義上的權利主體。“但是,如果將‘人工智能’創造活動類同于科學研究的‘電腦’,即把人工智能生成物視為通過人工智能創造的智慧成果,那么人工智能生成物又確實具備‘知識產權作品’的某些屬性。”
“問題的關鍵在于對‘人工智能’的法律定性。”曹新明表示,目前學界對這一問題主要有“工具”和“虛擬人”兩種觀點。“工具”即把人工智能視為人的創造物和權利客體;“虛擬人”是法律給人工智能設定一部分“人”的屬性,賦予其能夠享有一些權利的法律主體資格。
“即便承認人工智能生成物具有知識產權,其權利歸屬也是一個亟待解答的問題。”曹新明認為,如果將人工智能視為“工具”,人工智能生成物的權利可歸屬于設計開發者,或者所有權人,或者使用權人以及多個權利人共有。如果將人工智能視為“虛擬人”,則可以把人工智能生成物看作民法意義上的“孳息”,比如將人工智能視為“母雞”,那么人工智能生成物就是“母雞”下的“蛋”,“蛋”自然歸“母雞”所有者擁有。
此外,創造人工智能生成物,往往會通過一些程序進行“深度學習”,其中可能收集、儲存大量的他人已享有的知識產權信息,這就可能構成對他人知識產權的侵害。曹新明認為,“在這種涉嫌構成侵害知識產權的情形下,究竟應當由誰承擔責任,也是一個新問題。”
人工智能可以替代司法者嗎?
近年來,人工智能在司法領域的應用逐漸深入:2016年12月,名為“睿法官”的北京法院智能研判系統上線,為法官提供辦案規范和量刑分析等精準信息,用大數據推進法律適用和裁判尺度的統一;2017年5月,全國首個“刑事案件智能輔助辦案系統”在上海誕生,在對上海幾萬份刑事案件的卷宗、文書數據進行“深度學習”后,已具備初步的證據信息抓取、校驗和邏輯分析能力……
“利用人工智能,可以幫助司法者得到類似案件的全部先例以及法律、法規、司法解釋等裁判規則,從而減輕他們的工作負累、促進準確適用法律。”中國社會科學院法學研究所研究員支振鋒認為,通過數據采集、整理、分析、綜合,人工智能在促進司法者依法、全面、規范收集和審查證據,統一司法尺度、助力司法公正等方面,的確大有可為。
但是,這是否意味著人工智能將替代司法者,實現獨立斷案?顯然不可以。
“人工智能只是實現司法正義的輔助手段,切不可本末倒置,這是我們始終應該銘記的一條基本原則。”在上海交通大學凱原法學院院長季衛東教授看來,如果過分依靠人工智能自動生成判決、根據大數據矯正法律決定的偏差等,難免形成審判主體的多重結構,事實上形成程序員、軟件工程師、數據處理商等主體和司法者共執司法的局面。
“此外,如果讓人工智能超出輔助性手段范疇,全面應用于審判案件,那就有可能把司法引入歧途。”季衛東認為,在案件事實曲折、人際關系復雜、摻雜倫理和感情因素的場合,如何依據法理、常識和人情做出判斷并進行妥善裁決,其實是一種微妙的藝術,需要依靠法官的理性綜合分析。“即使人工智能嵌入了概率程序,具有深度學習能力,也難以保證做出公正合理、讓人信服的個案裁判。”
支振鋒也認為,就目前的發展情形看,人工智能還沒有取代司法者的可能,尤其是作為涉及情感與理性、規范與價值的法律訴訟,如果交給人工智能,這在法律和倫理上,都很難得到支持。“應防范對人工智能形成‘路徑依賴’,人工智能越發達,越應強調司法者的職業倫理。”支振鋒說。
人工智能侵權責任如何認定?
2016年11月,在深圳舉辦的第十八屆中國國際高新技術成果交易會上,一臺名為“小胖”的機器人突然發生故障,在沒有指令的情況下,自行砸壞了部分展臺,并導致一人受傷。
人工智能應用范圍的日益普及,其引發的侵權責任認定和承擔問題,是對現行侵權法律制度提出的又一個新的挑戰。
“從現行法律上看,侵權責任主體只能是民事主體,人工智能本身還難以成為新的侵權責任主體。即便如此,人工智能侵權責任的認定也面臨諸多現實難題。”在清華大學法學院教授程嘯看來,侵權發生后,誰是人工智能的所有者,就應當由誰負責,在法律上似乎并不存在爭議。“然而人工智能的具體行為受程序控制,發生侵權時,到底是由所有者還是軟件研發者擔責,值得商榷。”
與之類似的,當無人駕駛汽車造成他人損害侵權時,是由駕駛人、機動車所有人擔責,還是由汽車制造商、自動駕駛技術開發者擔責?法律是否有必要為無人駕駛汽車制定專門的侵權責任規則?這些問題都值得進一步研究。
“現實中,人工智能侵權責任的歸責原則,可能更多涉及危險責任或無過錯責任。”程嘯認為,例如無人駕駛汽車致害,無論從產品責任還是機動車交通事故責任上看,都可以適用無過錯責任。但未來需要考慮的是,人工智能技術的運用,其本身是否屬于高度危險作業(如無人機),從而決定了是否適用高度危險作業致害責任。
“當前,人工智能侵權責任中的因果關系、過錯等要件的判斷也變得日趨復雜。”程嘯還舉例說,此前曝光的一些APP“大數據殺熟”和“算法歧視”,由于代碼的不透明,加之算法本身的自我學習和適應能力,使得“將算法歧視歸責于開發者”變得很困難。
在程嘯看來,針對人工智能帶來的新問題、新挑戰,在法律制度的研究方面未雨綢繆,將為以后的司法實踐贏得主動。“人工智能已經到來,只是在生產生活的各個領域分布不均。我們不應等到未來分布均勻、人工智能已完全融入生產生活的方方面面時,才想起來從法律進行規范。”程嘯說。