網站地圖 原創論文網,覆蓋經濟,法律,醫學,建筑,藝術等800余專業,提供60萬篇論文資料免費參考
主要服務:論文發表、論文修改服務,覆蓋專業有:經濟、法律、體育、建筑、土木、管理、英語、藝術、計算機、生物、通訊、社會、文學、農業、企業

強弱人工智能下的刑事責任主體探究

來源:原創論文網 添加時間:2019-06-27

  摘    要: 近年來, 人工智能發展方興未艾, 其所涉及的法律風險問題也開始顯現。霍金曾指出, 人工智能的迅猛發展, 其可能產生自我意識和自主判斷, 最終超越人類的人工智能有可能奴役人類甚至導致人類死亡。在比較分析強人工智能刑事責任主體“肯定說”和“否定說”的基礎上, 對人工智能發展所帶來社會風險有可能拓寬責任主體范圍, 增加處罰危險犯等問題進行前瞻性反思。當前, 人類尚處于弱人工智能時代, 應當強調刑法的謙抑性, 在變革與秩序、創新與守護之間把握動態平衡;同時積極響應我國人工智能發展規劃的要求, 促進有關人工智能發展的法律法規建設, 以期能夠進一步有效完善刑事防控系統。

  關鍵詞: 人工智能; 刑事責任主體; 刑事風險; 犯罪;

  Abstract: In recent years, the development of artificial intelligence has been in the ascendant, and the legal risk issues involved have begun to emerge. Hawking once pointed out that the rapid development of artificial intelligence may produce self-awareness and self-determination. Ultimately, artificial intelligence beyond human beings may enslave humans and even cause human death. On the basis of comparative analysis of affirmative theory and negative theory of criminal liability subject of strong artificial intelligence, the authors make a prospective reflection on the social risks brought by the development of artificial intelligence, which may widen the scope of liability subject and increase the punishment of dangerous offenders. At present, human beings are still in the era of weak artificial intelligence. We should emphasize the modesty of criminal law, grasp the dynamic balance between change and order, innovation and guardianship. At the same time, it actively responds to the requirements of the development plan of artificial intelligence in China and promotes the construction of laws and regulations concerning the development of artificial intelligence in order to further improve the criminal prevention and control system effectively.

  Keyword: artificial intelligence; criminal liability subject; criminal risk; crime;

  隨著科技的不斷發展, 近年來“人工智能”呈爆發式增長。2017年年初, 《新一代人工智能發展規劃》正式頒布, 當中明確指出, 2020-2030年“人工智能發展戰略目標三步走”[1]。2018年10月, 國家政治局再次召開集體學習, 學習的主題是人工智能的發展現狀與發展前景, 中共中央總書記, 國家主席習近平在學習中提到, 必須把人工智能的發展放在國家戰略層面, 把握主動[2]。2018年11月20日下午, 以“人工智能快速發展下的先進制造研發基地建設和世界智能大會”為主題的理論創新論壇在天津市社科聯舉行, 該論壇圍繞人工智能發展中的理論焦點、實踐難點、發展重點展開交流, 并承諾將以此次論壇為開端, 依托社科界和智庫廣泛專家資源優勢, 凝聚管學研業界眾力, 為天津人工智能產業發展服務, 助力天津先進制造研發基地高水平建設, 助推世界智能大會提升人文品質, 為“五個現代化天津”建設貢獻力量。

  當前在人工智能發展中, 其所涉及的法律風險問題也開始顯現。霍金認為, 人工智能的迅猛發展, 其可能產生自我意識和自主判斷, 最終超越人類的人工智能有可能奴役人類甚至導致人類死亡[3]。2015年7月德國大眾汽車制造廠機器人在被安裝和調制過程中將工人重重壓向金屬板, 最終導致這名工人因傷重不治身亡;2016年11月我國深圳高交會上參展的機器人“小胖”在移動時將展臺玻璃碰倒, 劃傷了觀眾;2018年3月美國亞利桑那州一輛Uber自動駕駛汽車以64公里的時速撞向一名橫穿馬路的女性, 造成該女性不治身亡, 這是全球首起自動駕駛汽車撞死人類的事故……這一系列的機器人致人傷害或死亡的事件, 其刑事責任認定問題引起理論界和實務界廣泛關注。2017年, 《關于機器人民事法律規則的決議》在歐洲各國的議會上以高票數通過, 決議中明確指出, 自主機器人一旦引發事故, 必須承擔起相應的責任, 但前提是要認可機器人作為“電子人”的法律地位。只有這樣, 一旦發生由機器人引發的事故或造成的損害時, 才能根據機器人的行為能力以及電子人格進行責任判定[4]。國務院發布的《新一代人工智能發展規劃》中提到, 人工智能的發展不能放任自由, 必須正確引導, 機器人雖然與正常人不同, 但同樣具備獨立的人格, 應當擁有一定的權利, 同時需要履行相應的義務。為此, 我國部分學者提出, 從法律上認可人工智能系統作為一個“電子人”的地位, 是大力發展人工智能的必然要求[5]。學界對人工智能的界定, 簡單來說, 就是通過先進的科學技術, 賦予機器人靈活的大腦, 使其能夠按照指令完成任務。但是, 一直以來, 我國學者對人工智能的類型劃分存在不同觀點:有學者提出“兩分法”, 指出人工智能應當按照強弱進行劃分[6];有學者提出“三分法”, 即將人工智能劃分為三個等級, 即超人工智能, 強人工智能和弱人工智能。弱人工智能只能從事某方面的技術或操作[1], 比如戰勝了世界圍棋冠軍的阿爾法狗;強人工智能在各個領域都擁有與人類同等的智慧, 具有獨立解決問題的能力;超人工智能是在所有領域都超越人類大腦的超人工智能體;還有學者提出“再生智能”這一概念, 將是否具有“再生智能”作為區分強弱人工智能的標準。弱人工智能依賴于機器研發者事先預設的程序, 不具備自我學習和創造的能力, 不具備再生智能;強人工智能是指具備自我學習和創造功能, 不僅僅依據研發者事先預設的程序和機理, 自我能夠創設新智能的智能產品[8]。筆者贊同“二分法”, 仿照自然人所具有的的辨認能力和控制能力來進行強弱人工智能分類。

強弱人工智能下的刑事責任主體探究

  一、弱人工智能非刑事責任主體

  弱人工智能只是在設計和編制的程序范圍內進行活動, 其實現的只是設計者或使用者預先設定好的程序算法, 因其不具有辨認能力和控制能力, 只能將其視為智能工具, 其不具有刑事責任主體資格, 無法獨立承擔刑事責任。

  以“自動駕駛機動車”為例, 按照目前通用的自動駕駛機動車的技術標準, 自動駕駛機動車的分級為L1-5級, 但即便是最高級的完全自動駕駛機動車, 也無法成為獨立的刑事責任主體, 因為其完全自動駕駛的所有指令都是由人類開發者根據提前設計好的程序算法發出的, 其只需要借助車身上裝載好的激光測距儀、雷達、傳感器等根據實際情況來履行程序指令就可達到完全自動駕駛。2016年5月7日, 一輛2015年版ModelS拓速樂牌轎車與一輛拖掛車輛在美國佛羅里達州一段高速公路上相撞, 導致駕駛員死亡。根據2013年美國國家公路交通安全管理局發布的機動車自動化標準, 該事故汽車屬于L2級自動駕駛汽車 (部分自動駕駛機動車) 。按照L2級自動駕駛機動車劃分的依據, 該車的輔助駕駛系統還不能識別所有的道路交通危險, 不能代替駕駛員直接駕駛, 因而在使用輔助駕駛功能時, 操控者依然為駕駛員, 其仍需維持高度警惕性, 盡管其本人不直接操控車輛, 車輛卻始終是處于其監管下的, 主要責任仍歸屬于該車輛的駕駛員[9]。據相關調查, 該車不存在設計缺陷和制造缺陷, 所以該事故責任不能歸責于機動車本身, 也不能歸責于研發者、生產者, 只能由該機動車駕駛員對安全行駛負全部責任。

  目前人類尚處于弱人工智能時代, 人工智能產品作為“智能工具”所造成的刑事責任問題主要有以下幾種情況:其一, 行為人 (研發者/使用者) 故意利用弱人工智能產品實施犯罪的情形。研發者在弱人工智能產品出廠前就已經在其系統中植入了類似于犯罪計劃的程序, 且使用者并不知情, 也從未想過利用該智能產品實施犯罪, 那么只要弱人工智能產品實施了該程序所預設的犯罪行為, 所有的刑事責任都應當由研發者承擔。另一種情況, 研發者和使用者共謀利用弱人工智能產品實施犯罪行為, 此時可參考共同犯罪, 由研發者和使用者共同承擔刑事責任。還有一種情況, 研發者在弱人工智能產品出廠前盡到了合理的注意義務, 且其無法預見出廠后該智能產品會造成危害結果, 該人工智能產品實施危害行為是使用者故意為之, 所有的刑事責任應當由使用者來承擔。其二, 行為人過失致使弱人工智能產品犯罪的情形。這里的“過失”指的是弱人工智能產品的研發者或使用者違反了預見義務。在使用或研發弱人工智能產品時, 人工智能技術可以避免危害結果的發生的情況下, 研發者及使用者仍需肩負相應的責任及義務, 最終未預見或已經預見卻輕信能夠避免而導致危害結果的發生, 表明一般過失犯罪成立, 研發者或使用者應承擔刑事責任[10]。其三, 在研發或使用弱人工智能產品時, 人工智能技術無法避免危害結果的發生。在該情形下, 智能機器人的研發者或使用者已經盡到了合理的注意義務卻仍未能避免危害結果的發生, 所造成的危害結果不能由二者承擔。有學者提出, 此種情形可以參照民法中的“嚴格責任”, 人工智能產品的研發者或使用者成立監督過失犯罪。筆者認為, 不能參照民法中的“嚴格責任”認定研發者或使用者成立監督過失犯罪。一是因為刑法不同于民法, 民法中的“嚴格責任”也稱為無過錯責任, 而刑法則遵循罪、責、刑相適應原則, 無過錯也即既無故意也無過失, 強加其二者無過錯的刑事責任是不合理的;二是將所有責任都歸于研發者和使用者, 無疑會阻礙“人工智能產業”的發展, 使得研發者因忌憚法律風險而無法致力于創新, 使用者因畏懼承擔法律責任而不敢購買使用人工智能產品, 導致人工智能產業喪失發展活力。

  在弱人工智能時代, 無論行為人是故意利用人工智能實施犯罪行為, 還是由于過失而致使人工智能實施犯罪行為, 都僅是把人工智能產品視作“智能工具”。為加強刑事風險防控, 劉憲權教授提出, 未來我國刑法的改造可從下述幾方面入手:第一, 從源頭防控風險:增設濫用人工智能罪;第二, 確立嚴格責任:增設人工智能事故罪[11];第三, 適時考慮賦予強人工智能機器人刑事責任主體的地位[12]。而馬榮春教授認為, 人工智能在實質上不具有受刑能力, 在人工智能造成損害的場合根本不存在刑事意義上針對其本身的“處罰空隙”問題[13]。目前AI應用領域中, 最為成熟的當屬無人駕駛技術與智能醫療技術, 兩者對人們的生活及安全有極大影響, 故應受到高度關注, 在上述AI應用領域, 駕駛與手術的過程作為行為主體的“人”已被虛化, 并無實質的參與行為。“人”退居二線, 如果基于“無行為則無犯罪”原則, 使刑事責任主體無從可尋。查證AI的主觀罪過也是技術上的偽命題。所有的人在智能駕駛時代都成為潛在被害者, 傳統的行為主體消失, 將刑事歸責完全轉嫁到智能技術或智能汽車提供商顯失公平。筆者認為, 應當堅持“技術中立”, 為防控刑法風險, 應當推行強制保險制度來平衡用戶和生產商雙方的利害關系, 加強被害人的救助補償制度[14]。

  二、強人工智能刑事主體肯定說

  隨著尖端科技日新月異的發展, 未來的機器人在很大幾率上會在無人介入的情境下做出系統算法中本無設定的行為。此時人工智能產品所做出的種種“行為”, 有些并非是設計及制作過程設定的, 而是具體操作時發生的變動, 這些變動都是難以預估的, 且是結合當下的實際需求重新設定而做出的。所謂的強人工智能, 實際上就是能夠決策及實施的行為不屬于設計及編程范疇的人工智能。當強人工智能產品開始不受人類監管時, 其在運轉過程中可能會造成的對社會對個人的法益上的侵害結果, 最終承擔責任的對象應是誰, 在刑法中并未明晰, 在此情況下, 就必須專門頒布“機器人刑法”。為了防止未來AI對人類法益實際產生侵害, 國內外很多學者提出“人工智能獨立承擔刑事責任”的觀點 (下稱“獨立責任承擔說”) 。“獨立責任承擔說”的核心依據是AI符合施加刑事責任的內部要素, 即獨立的“控制能力與可培養的辨認能力”。“獨立責任承擔說”為AI設定了有針對性的刑罰措施。這包括對AI懲處罰金刑;對AI施以自由刑;對AI施加死刑, 包括對軀體的永久銷毀和對AI的數據予以刪除[15]。具體而言, “獨立責任承擔說”主要觀點如下:

  (一) 強人工智能符合刑法所規定的犯罪主體的條件

  根據我國《刑法》的規定, 只要實施了能夠對社會產生危害的行為且具備刑事責任能力, 即自我控制和辨認能力就能夠成為抽象的犯罪主體, 至于“應受刑罰處罰承擔責任”則是來源于罪刑法定原則, 是立法者在肯定了強人工智能產品具備刑事責任能力并能夠實施具有社會危害性的行為之后在立法上的選擇與回應, 所以是否能夠實施危害社會的行為且具備刑事責任能力才是決定人工智能產品能否成為犯罪主體的本質要件[16]。毋庸置疑, 超出設計和編制程序的強人工智能能夠自主決策, 且能夠基于自主意志實施具有社會危害性的行為, 滿足成為犯罪主體的兩個條件, 應當成為受刑法規制的犯罪主體。

  (二) 強人工智能的行為是刑法意義上的“行為”

  站在歷史的長河中, 循著“行為理論”與時俱進的發展歷程來看, 當中較為典型且有代表性的包含目的行為、社會行為、因果行為、自然行為等理論, 這些理論是基于人的基礎上, 以人的行為作為基礎而構建[17], 偉大的哲學家, 思想家馬克思曾說:“法律的對象并不是人, 而是人的行為。”由此可見, 法律是建立在人的行為基礎上的, 而“行為”又應如何定性?“行為”是否必須是“人”的行為?然而, 對于人的行為的討論, 是否同樣適用于人工智能系統呢?雖然人工智能系統與正常人有所不同, 但事實上, 盡管人工智能系統不屬于生命體, 但它的其余要素與“行為理論”完全吻合[18]。因此, 賦予強人工智能機器人刑事主體資格是具有現實可能性的。

  (三) 承認強人工智能刑事主體能力, 具有一定的社會治理意義

  法律是案件判決的直接依據, 對違法犯罪行為進行懲罰, 本質上是為了預防犯罪, 這種預防又可分為特殊預防與一般預防。一般認為, 特殊預防的目的在于通過刑罰限制、剝奪犯罪主體的再犯能力, 實現威懾與再社會化功能;而一般預防則是通過對犯罪人適用刑罰向一般社會主體宣告, 犯罪就必須受罰, 向一般社會主體施壓及震懾, 從根源上杜絕犯罪行為的產生。強人工智能產品, 雖然不具有人類的生物體征和肉體上的痛感, 但其擁有自我控制與辨認能力, 如若對其進行剝奪自由、毀損等處罰, 其也會感到痛苦、自責與憤懣, 并且人工智能的核心數據庫都是同步即時更新的, 其他的人工智能犯罪人受到處罰, 強人工智能產品也會受到威懾與教育, 從而整體在人工智能產品中減少再犯率與犯罪率, 以實現刑罰預防的功能與目的[19]。

  三、強人工智能刑事主體否定說

  “否定說”認為, 強人工智能所具備的自我學習能力是人類所賦予的, 不應將其神圣化。是人類用他們已知的技術將一些材料組合起來再輔以核心算法創造了目前我們稱之為“人工智能”的東西, 人工智能創造之初, 就是為了便捷人類的生活, 其地位在創造之初就已經被設定, 如若賦予其類人的法律地位, 無疑是否定了人類最初的構想, 也不利于人類的可持續發展。人工智能的思維程序是機械式不帶有情感的, 雖然其具備辨認和控制能力, 能夠自主根據不同情況實施行為, 但其仍舊無法感知、理解自身行為的意義, 其執行任務的基點仍是冷冰冰的代碼, 無法像人類一樣基于某種特殊的情感而做出某種行為。如小米系統中的“小愛同學”、蘋果系統的Siri等等, 對于閱讀的內容具體為什么意思, 這些人工智能并不了解, 因各智能程序間存在的差異性使其無法學習、交流, 且各程序的本體及知識表現形式也具有較大差異[20]。“否定說”指出, 人工智能獨立承擔刑事責任不具有理論自洽性, 強人工智能不能成為刑事責任主體, 其主要理由如下:

  (一) 法律主體不應被過度抽象, 強人工智能與自然人存在本質區別

  有觀點指出, 雖然具備獨立的自我辨認和控制能力是成為犯罪主體的前提, 但是將人工智能過度的向自然人的抽象概念靠攏并賦予其主體資格無疑是荒謬的。自然人是具有社會屬性的, 鑒于人的多面相性, 強人工智能和自然人有本質差別。假如人僅被都當成抽象化、理性化的法律主體, 那其將不會存在其它的面相。人與人工智能系統不同, 人是一個實實在在的實體, 具有思考能力, 行為能力, 需要與他人進行接觸[21]。因此, 機器人再怎么“高智商”, 它也不能成為“人”, “人”身上的種種獨特的屬性, 是一個機器無論如何也無法具備的。“肯定說”堅持強人工智能產品的犯罪主體地位是站在一個非常抽象的法律角度來考慮的, 忽略了作為法律主體的自然人的其他面相。

  (二) 強人工智能不具備可追究刑事責任的主體意志自由

  黑格爾認為:犯罪本身就是一種經過理性思考才作出的行為, 一旦人產生了犯罪行為, 就必須接受法律的懲罰, 在他看來, 犯罪是犯罪人自由意志的體現[22]。若要尋找正當的刑罰根據, 那必須由犯罪人的自由意志入手, 實際上就是, 犯罪人是通過犯罪來體現自由意志, 那么自由意志不存在的情況下犯罪自然也不會形成, 所以與刑法間也無實質性的聯系[23]。現代刑法確立主客觀相統一的犯罪構成理論。犯罪行為是否成立, 不僅需要考量犯罪行為對他人或社會所造成的損害, 而且還要考慮犯罪人的作案動機和心理狀態。

  1. 強人工智能運行機理與人的意志自由進行形式匹配過于機械, 與自然人的獨立意志不具有對等性

  就算是強人工智能, 也只是在人為的干預下按照指令執行操作, 即便人工智能技術繼續發展, 甚至能夠脫離人類的控制, 自主做出某種行為, 但其仍然無法明白自身行為的意義, 即便是做出了傷害性的行為, 也可能談不上任何作案動機, 因此, 人工智能系統本身就沒有法律意義上的意志自由, 與自然人的獨立意志不具有對等性。自由意志是尋找正當的判處刑罰的根據, 其若不存在的, 那么根據自然也無從找起, 強人工智能不具備獨立意志, 自然也就不具有被刑法規制的意義, 不能成為名副其實的刑事責任主體。

  2. 強人工智能不具有理解并遵從法規范的能力, 強人工智能行為屬性判斷無客觀標準

  刑事責任若要成立, 作為行為主體需要滿足以下兩個條件: (1) 對于法律規范, 要有能夠認識、理解的可能與能力; (2) 要能夠基于對法律規范的理解, 具備在不同具體情境下抵制誘惑, 即不做違法犯罪行為的意志力的可能性。但是, 人工智能產品是在人類的努力下經過研發而誕生, 對法律條例并不了解, 甚至完全沒有遵守法律條例的行為能力。換言之, 即便人工智能系統違法了法律條例, 作出了損害性行為, 其本身也可能完全不自知, 目前為止, 人工算法并沒有能力完全干預人工智能系統的行為, 欠缺刑法所要求的對法規范遵從的意志自由。而且強人工智能也可能會出錯, 一旦算法錯誤, 就會做出損害他人或社會的行為, 那么從法律的層面來講, 這是純屬的機器意外事故, 還是人工智能系統經過自主思考而作出的行為呢?人工智能系統是否應當承擔相應的責任呢[24]?

  (三) 根據現有的刑罰體系對強人工智能判處刑罰無意義

  若承認強人工智能的犯罪主體地位, 就必須對其判處刑罰。我國刑法主要有五種主刑和四種附加刑, 按照刑法輕重可分為管制、拘役、有期徒刑、無期徒刑和死刑;罰金、剝奪政治權利、沒收財產和驅逐出境[25]。由于人工智能并不是正常的行為人, 不會產生與人體同等的感覺和道德上的負罪感, 對其判處現有體制下的刑罰沒有人類所能理解的實際意義。對此有學者指出, 可以通過對刑罰體系的重構來實現對強人工智能的刑事處罰, 實施特殊的刑法懲治手段, 如刪除數據、修改程序、永久銷毀等[26]。有觀點認為上述看法不具有合理性, 此類特殊的懲治手段無法實現刑罰的機能, 強人工智能是冷冰冰的材料加以核心算法程序堆砌而成的產物, 無血無肉, 沒有自然人與生俱來的倫理上和道德上的制約與情感, 其也無法從其他機器人受到的懲罰中吸取經驗教訓進而實現一般預防的功能。另外, 如若承認強人工智能為犯罪主體, 對其特殊規制, 其無法與自然人一律平等地適用刑法, 依法定罪量刑和行刑, 勢必違反刑法面前人人平等原則, 挑戰刑法基本原則, 引發法律體系的動蕩。

  四、結語

  盡管目前人類的技術還只是停留在弱人工智能階段, 但是當代科技迅猛發展的速度足以讓人類相信在不遠的將來, 強人工智能不再是一個概念中的抽象物, 而是真真切切會存在的具象物, 所以對于人工智能產品目前以及未來可能會出現的一系列問題, 還是應當考慮在先, 思索在先。現當代人類社會所出現的弱人工智能產品是不具備刑事主體資格的, 其在“使用”中所帶來的致人傷亡等嚴重法律后果, 建議通過完善人工智能應用被害人救助補償制度加以解決。

  隨著科技發展日新月異, 當強人工智能產品實施了嚴重危害社會, 侵害他人法益的行為時, 刑法又該如何應對?德國學者針對此問題有諸多不同看法, 觀點大致分為兩派。一派的代表為希爾根多夫教授, 其認為應當修改及完善當前已有的刑法概念, 開辟適用于機器人的刑法。另一派的代表為貝克與約爾登兩位教授, 其認為刑法不可能適用于機器人, 將此可能性直接抹殺, 認為刑法是圍繞著人的, 并嘗試解釋及修正現有刑法理論予以應對[27]。本文在比較分析強人工智能主體“肯定說”和“否定說”的基礎上, 對人工智能發展所帶來社會風險有可能拓寬責任主體范圍, 增加處罰危險犯等問題進行前瞻性反思。

  當前, 人類尚處于弱人工智能時代, 應當強調刑法的謙抑性, 在變革與秩序、創新與守護之間把握動態平衡。同時積極響應我國人工智能發展規劃的要求, 促進有關人工智能發展的法律法規建設, 以期能夠進一步有效完善刑事防控系統。

  參考文獻

  [1][7]房紹坤, 林廣會.人工智能民事主體適格性之辨思[J].蘇州大學學報 (哲學社會科學版) , 2018, (5) :64.65.
  [2] 推動我國新一代人工智能健康發展[J].科技傳播, 2018, (21) :3.
  [3] 霍金.AI是進步但極可能是人類文明最后的進步, 載http://news.ifeng.com/a/20171123/53514564_0.shtml, 2018-11-24.
  [4]皮勇.人工智能刑事法治的基本問題[J].比較法研究, 2018, (5) :150.
  [5]袁曾.人工智能有限法律人格審視[J].東方法學, 2017, (5) :50-57.
  [6]劉憲權.人工智能時代的“內憂”“外患”與刑事責任[J].東方法學, 2018, (1) :134.
  [8]王冠.強弱人工智能產品刑事責任認定規則[A].劉憲權.人工智能:刑法的時代挑戰[C].上海:上海人民出版社, 2018.157.
  [9]楊立新.用現行民法規則解決人工智能法律調整問題的嘗試[J].中州學刊, 2018, (7) :48.
  [10]劉憲權.人工智能時代刑事責任與刑罰體系的重構[J].政治與法律, 2018, (3) :92-93.
  [11]劉憲權, 房慧穎.涉人工智能犯罪的前瞻性刑法思考[J].安徽大學學報 (哲學社會科學版) , 2019, (1) :108-117.
  [12]劉憲權.人工智能時代的刑事風險與刑法應對[J].法商研究, 2018, (1) :5.
  [13] 馬榮春.人工智能的犯罪主體化問題[D].2018年互聯網法律大會·人工智能與法學論壇論文集, 2018-11-24.
  [14]孫道萃.人工智能對傳統刑法的挑戰[N].檢察日報, 2017-10-22 (03) .
  [15]儲陳誠.人工智能可否成為刑事責任主體[N].檢察日報, 2018-04-19.[16]
  [19]劉憲權.人工智能時代機器人行為道德倫理與刑法規制[J].比較法研究, 2018, (4) :48.51.
  [17] (德) 恩施特·貝林.構成要件理論[M].王安異譯.北京:中國人民公安大學出版社, 2006.65.
  [18]劉憲權, 胡荷佳.論人工智能時代智能機器人的刑事責任能力[J].法學, 2018, (1) :46-47.
  [20] (英) 瑪格麗特·博登.人工智能的本質與未來[M].孫詩惠譯.北京:中國人民大學出版社, 2017.23.
  [21]王勇.人工智能時代的法律主體理論構造——以智能機器人為切入點[J].理論導刊, 2018, (2) :68.
  [22] (德) 梅爾.德國觀念論與懲罰的概念[M].邱帥萍譯.北京:知識產權出版社, 2015.183.
  [23]邱興隆.報應刑的價值悖論—以社會秩序、正義與個人自由為視角[J].政法論壇, 2001, (2) :27.
  [24]時方.人工智能刑事主體地位之否定[J].法律科學 (西北政法大學學報) , 2018, (6) :71.
  [25]吳波, 俞小海.人工智能時代刑事責任認定思路的挑戰與更新[J].上海政法學院學報 (法治論叢) , 2018, (5) :98.
  [26]劉憲權, 朱彥.人工智能時代對傳統刑法理論的挑戰[J].上海政法學院學報, 2018, (2) :51.
  [27]儲陳城.人工智能時代刑法歸責的走向—以過失的歸責間隙為中心的討論[J].東方法學, 2018, (3) :28.

重要提示:轉載本站信息須注明來源:原創論文網,具體權責及聲明請參閱網站聲明。
閱讀提示:請自行判斷信息的真實性及觀點的正誤,本站概不負責。
我們的服務
聯系我們
相關文章
天津快乐10分查询结果