AI犯法 誰人負責?

發佈時間: 2017/11/17

AI犯法 誰人負責?

人工智能(AI)來襲,除重塑各行業職場格局,更引起法律爭議。現時還未有法例規管AI行為,若AI聊天機器人對使用者進行性騷擾、AI的自動駕駛系統發生交通意外、AI武器自行攻擊目標,刑責問題恐糾纏不清。有法律專家提倡將「法人」概念伸延至AI機器。

隨着AI不斷滲入大眾生活,法律界已開始討論AI引致的法律權責問題。Baker McKenzie律師事務所合夥人Susan Kendall盼公眾留意當中的法律灰色地帶。因現時還未有法例規管AI行為,若AI聊天機器人對使用者進行性騷擾,又或是於招聘過程中加入AI,「因AI是按數據分析。若企業有意輸入偏頗資料,如黑人犯罪率高等,讓AI按所輸入的資訊作出冒犯行為,又或是拒絕聘請某種族,那時責任誰屬?公司是否要負上刑責?」

提倡「法人」概念

Susan又舉例指,使用AI的自動駕駛系統,若發生了交通意外,是駕駛公司還是製造者需負刑責?有法律專家提倡將「法人」概念伸延至AI機器,但在法律界還未有明確定論時,她建議公司內部宜及早列明AI設計規限,勿輸入偏頗資料,以免為刑責問題糾纏不清。

難處理「倫理困境」

AI亦會帶來「倫理困境」,浙江大學計算機學院教授吳飛舉例,若一輛載滿乘客的無人駕駛汽車正在行駛,突然遇到一位孕婦橫過馬路,若緊急煞車可能會翻車傷及全車乘客,但不緊急煞車可能會撞到孕婦。這種情況下,如果司機是人類,那個瞬間完全取決於本能直覺,但當AI陷入人類「倫理困境」的極端情景時,其大腦暫不可能做超出人類算法中所設定範圍行為決策,故程式員或需通過代碼來指令無人車如處理,然而這種決定應要和倫理學家一同研究。

華盛頓大學法學教授瑞恩‧卡洛研究了過去60年涉及機械人的9單法律案件,發現大多數司法推理都建立在對科技貧乏及過時的理解上,傾向將機器人視為可編程的工具或不能自己做出決定的機器,「機械人讓法院面臨獨特的法律挑戰,法官們還沒有做好應對的準備。我們傾向把機器人當做一種未來技術來討論,卻忽視了我們已經與它們共存數十年的事實。」

Google母公司Alphabet旗下的AI開發機構DeepMind,早前已決定成立專責小組,研究AI為人類帶來的倫理與社會問題,以及協助將AI用於正途上。小組會定期就AI所引起的私隱、濫用、道德等範疇進行研究報告。

免費AI律師 助打甩無理牛肉乾

美國就初創公司DoNotPay研發AI聊天機械人,為美英用戶提供法律意見及援助,包括幫助用戶應付不合理泊車罰款,協助難民在英國申請庇護,甚至幫助因為飛機航班延遲,滯留機場的用戶追討賠償等事宜提供意見等。

該服務以網頁為基礎,不需安裝額外軟件及程式,用戶只需要輸入正面對的難題,AI將給予指引。創辦人Joshua Browder表示,兩年前因為自己泊車被罰款,了解到律師賺錢的方法,並對此不敢恭維,因此着手研究chat bot,並召集律師及熱心人士義務幫忙建立網站等事宜,希望為普羅大眾,特別是低收入人士了解自己的權利。

用戶可了解到地產發展商在其房屋旁邊建屋的條款,如用戶有親友離世,該服務可幫助通知他們的銀行。此外,服務亦可協助用戶申請產假和侍產假,教導面對遇到歧視及侵犯時應採取的行動,甚至當用戶取消健身會籍時幫助退款。

資料整理︰吳浩南

編輯︰梁偉澄

美術︰簡力斯

相片:網上圖片

欄名: 要聞專題