張宏艷
張宏艷

大數據陷阱

發佈時間: 2021/08/26

大數據陷阱

上回講到,如果有人工智能情人,其智慧全賴「大數據」,先要有系統地收集海量的數據讓電腦學習,然後設計演算法,讓電腦遇到問題時懂得分析既有資料並作出預測,再做下一步行動。

問題來了,人工智能「學習」的資料,直接影響其智慧,大數據如果處理不當,就可能出現瞎子摸象的情況。有一個大家記憶猶新的例子,2018年,一架自動駕駛的Uber汽車在美國公路撞死一個女子。事後調查發現,原來汽車系統只懂得分辨行人路上的行人,及路上的「汽車或單車」,卻不知道行人有時會亂過馬路(Jaywalking)。這個女人事發時正在踩單車橫過馬路,系統錯認她的前進路徑,沒有及時煞車而引致意外。事後有關方面馬上修正系統,加入「亂過馬路」的元素。

另一個涉及更多人的大數據例子,就是2018年美國Amazon的面部辨識軟件,將28名美國國會成員認錯為罪犯,很多被誤認者都是有色人種。推斷其原因,現有的大數據在原本蒐集時可能已含有種族歧視成分,把所有這些大數據結合起來,反而可能教導出種族歧視的人工智能,令問題更趨嚴重,而非作出更好的判斷。

大數據有優勢亦有陷阱,使用時必須審慎小心。(大數據‧二)

(本欄逢周二、四刊登)

撰文: 張宏艷 資深傳媒人、資深港媽
欄名: 每日驚艷