洪朝貴
ckhung@cyut.ed
u.tw
朝陽科技大學資訊管理系
諸多因素促成近年來人工智慧技術突飛猛進。 除了出現了許多令人振奮的新技術之外, 這也讓社會突然之間需要面對很多新的挑戰。 聽了很多古典音樂之後, AI 所創作出來的交響樂, 著作權屬於誰? 反過來說, 看了很多二次元角色之後, AI 所畫出來的新造型二次元角色, 有沒有侵權? 成本低廉的逼真的假影片的普及, 是否也意謂著 「有影片未必有真相」 年代的來臨? 假色情影片的受害者, 可以尋求什麼樣的法律保護? 有能力從相片推測性傾向的 AI、 有能力從從臉書貼文推測政治傾向的 AI, 對你我的隱私有何威脅? 在禁止多元文化的國家, 會如何被濫用? 被政府濫用, 而又判斷錯誤時, 會發生什麼事? 自動駕駛及飛行技術搭配圖片 (例如植物或人臉) 辨識技術, 可以幫助農夫精準灑農藥, 但也可以幫助恐怖份子鎖定特定類型對象進行大規模致命攻擊。 也許我們需要一個機制, 讓公民能夠在大量新型態的社會問題即將接連發生之前被告知各種可能性, 並提早展開公民與技術人員之間的對話。
關鍵字: 人工智慧、 著作權、 假新聞、 風險管理、 監控
俗稱的人工智慧 (artificial intelligence), 從資訊科技的角度來看, 其實包含很多類型的技術。 近年來突飛猛進的, 屬於 「機器學習」 (machine learning) 這一個子領域。 這基本上是餵大量的資料給軟體, 由軟體自行發現其中的規律而不由程式設計師預先告知其規律。 這也是為什麼它有機會做得比人類原先想像的更好。 另一方面, 因為它需要大量的資料, 所以機器學習領域跟大數據 (big data) 領域有相當大的重疊。
在機器學習領域當中, 今日最主流的技術是類神經網路 (artificial neural network)。 這是以軟體的方式來模擬人類腦神經的運作, 把大量的 (模擬) 神經元 (neuron) 接在一起。 在經過大量資料的訓練之後, 每一顆神經元上的一些參數會傾向收斂到某些數值。 這些數值決定它將如何把上游的資訊傳遞給下游的神經元。 學者研究出不同的接線方式, 稱為各種不同的模型 (model); 再用大量資料訓練類神經網路, 得到這些數值, 稱為權重矩陣 (weight matrix)。 其中有些模型的神經元層層相疊, 可能多達數十層甚至上百層, 就稱為深度神經網路 (deep neural network)。 而這類的機器學習, 當然也就稱為深度學習 (deep learning)。
在人工智慧領域裡, 軟體/模型甚至權重矩陣經常都採用開放自由的授權釋出。 有了模型跟權重矩陣, 工程師就可以把它嵌到其他傳統的程式碼裡面去應用。
因為機器學習/深度學習的構造跟人腦很類似, 所以它跟人的認知/學習行為也很像。 (當然, 速度及量有很大的差異)。 比方說, 它很能夠舉一反三, 面對從未經驗過的圖像/文字/聲音, 它可能也會有正確的判斷或反應。 再來, 如果餵給它的資料有偏頗, 它當然就會產生偏見。 還有, 遇到一些較複雜的狀況, 它的判斷結果可能讓人很難理解。 當傳統的程式遇到這種狀況, 可以找工程師來研究到底是哪一條規則導致不理想的判斷結果; 但面對 DNN, 工程師很有可能無法找出合理的解釋。 還有, 如果當初訓練它的目標設定考慮不週全, 那就很可能出現童話裡向全能精靈許願的意外後果。 工程師把微軟的 twitter 聊天機器人 Tay 設定成愛搞笑的十幾歲小女生, 希望它能夠跟網友有很多的互動。 結果它被一些不懷好意的網友訓練成種族歧視的戳樂。 [1]
即使不談論人工智慧議題, 著作權早已飽受爭議。 想要保護著作權, 最終總是必須採取某種 「封鎖資訊流通」 的技術。 但如果不能夠監控每個人之間私密傳遞的訊息, 就不可能完封 「非法資訊流通」。 換個方式說, 監控私密通訊是封鎖資訊流通的基礎。 這也是為什麼許多了解資訊技術運作原理的人士都認為: 著作權跟人權只能二選一。 [2]
人工智慧的出現, 則突顯了著作權與新科技的另一個衝突。 在 make.girls.moe 這個網站上, 訪客可以叫 AI 畫二次元女生頭像插畫。 訪客甚至可以指定頭髮顏色、 髮型、 要不要戴眼鏡/張嘴/微笑、 ... 等等。 [3]
如果要嚴格落實著作權, 這裡至少要討論兩個議題。 首先, 作者的訓練資料來自何處? 有沒有侵犯著作權? 從法律的角度來看, 用以訓練的大量圖片, 或許很難主張是 「合理使用」。 但從程式設計師的角度來看, 最後儲存在權重矩陣裡的資訊只是一堆數字, 跟原始資圖片料長得完全不同, 甚至根本沒有任何一張圖片。 而且每一張圖片對於這個軟體的貢獻都只佔很低的百分比。 如果我們的社會認為程式設計師已經侵犯了著作權, 或主張他應該事先取得每一位作者的授權才能進行這個研究。 那將會扼殺未來許多多類似的創新應用。
另一方面, AI 作品的著作權屬誰? 一個名為 AIVA 的古典樂創作 AI 拿已經不受著作權保護的音樂來進行訓練, 所以資料來源沒有侵權的問題。 它的作品跟真人的作品難以分辨, 它甚至還被法國與盧森堡的作著權利組織認定為作曲家。 [4] 那麼, 它的作品是否也受到著作權保護呢? 若然, 「著作權擴大貧富不均」 的現象將透過各種 AI 藝術家的出現而更加顯著。 畢竟 AI 的產能及速度將遠遠超過人類。
這也更促使我們思考著作權的原始用意。 著作權是一種犧牲言論自由以便鼓勵創作的人造缺稀法律機制。 但現在到底是在鼓勵誰創作呢? AI 軟體作者跟 AI 本身, 誰更需要創作動機呢? MakeGirls 的作者將軟體本身以自由軟體的 GPL 3.0 方式釋出分享; 而程式作者對其成品及權重矩陣主張著作權, 但允許非商業使用。 在這類的情境之下, 誰最有機會從中合法獲利呢? 答案可能既不是程式設計師, 也不是藝術家, 而是握有大量訓練資料著作權、 得以無侵權疑慮訓練 AI 創作當代風格作品的大型企業或組織。
Face Reenactment 技術把兩部人臉影片合成一部: 如果輸入是一部川普演講影片及一部 「操偶人」 對著簡單的筆記電腦攝影機扮鬼臉的影片, 那麼輸出就是川普扮鬼臉的影片。 [5] 顯然, 這個技術有很大的機會被拿來濫用、 製造假新聞。 以前是 「有圖有真相」; 未來即使有影片, 也未必保證有真相。
事實上比假新聞更早出現的, 是更換主角臉孔的假造色情影片。 一個名為 deepfake 的用戶用 AI 把女名星的臉貼到色情演員身上, 製造出許多假影片。 可以想像用繪圖軟體把影片一格一格 「變臉」; 只不過 AI 可以自動幫你處理一整部影片。 Deepfake 的受害者跟 2014 年 iCloud 私密照片外流的明星一樣束手無策, 而且更加無從防範。 隨之而來的是付費客製服務及免費的 app。 只要你取得受害者夠多張臉部照片, 就能夠透過付費或自行操作、 產生假的色情影片。 已經有人開始拿它來製作朋友同學的假色情影片。 也可以想像這技術很可能將會被拿來製作防復仇式色情影片 (revenge porn)。 Motherboard 對此議題有一系列的報導。 [6]
各種發展一方面令人擔憂一般人的隱私權或肖像權 (或其他更能直接反應受害者情緒的法律權益?) 另一方面也令人擔憂社會對此的反應會不會成為技術管制的藉口。 電子先鋒基金會 (Electronic Frontier Foundation) 認為我們應該用既有的法律 -- 特別是 false light 相關法律去處理它, 而不是創建新的法律去阻止這種技術的擴散。 False light 類型的法律也適用於靜態圖片修圖造成受害人心理傷害的情況。 [7] 但臺灣有沒有這樣的法律? 如果以 「公然猥褻罪」 來處理, 對受害人是不是一種二次傷害? 這是值得法律學界探討的問題。
影片移花接木技術當然不只應用於造假色情影片, 它也可以用來造假新聞。 造假技術也不限於影片。 已有好幾篇報導描述失去愛人、 父親、 母親的工程師利用 AI 技術創造模仿逝去親人的聊天機器人。 可以撫慰傷痛的技術同樣也可以被拿來撰寫假的 e-mail 或各種類型的文字簡訊。 模仿指定人士講話聲音的 AI 技術也在進步當中。 [8] 就像人類的智慧是兩面刃一樣, 這些人工智慧技術既有正面也有險惡的用途。 針對特定對象精心客製化的魚叉式網路釣魚 (spear phishing) 案例, 將因為這些 AI 技術的進步與普及而跟著擴大規模, 因為 「精心客製化」 一事將不再需要太多人力插手。 [9] 我們顯然不可能因噎廢食、 封鎖這類知識與技術的擴散。 最終, 提高一般人對於造假圖片/影片/錄音/文字的警覺性, 可能才是根本的面對之道。
人工智慧技術的濫用, 在一個集權控制、 欠缺隱私與人權意識的技術強國裡, 將最為可怕。 中國符合上述的所有條件, 又因為兩岸之間的頻繁民間交流, 所以特別值得我們關注。
《世界日報》報導,中國先進的人臉辨識系統結合身分證件, 使得「老大哥正在看著你」越來越得心應手, 中國的街道、地鐵站、火車站、機場, 甚至公共廁所、宿舍、電梯,都安裝了人臉辨識系統,能捕捉所有人臉, 存入數據庫,如果發現「目標人臉」, 立即啟動跟蹤功能。 而《蘋果日報》22日報導指出, 中國作家黎學文因海祭諾貝爾和平獎得主劉曉波,逃亡數月, 本月19日於廣州火車站被捕,據說就是因為火車站有「人臉識別器」。
此外, 《華爾街日報》與國際非政府組織「人權觀察」(HRW)均指出, 新疆警方採購具3D臉部成像功能的攝影機, 以及 DNA 測序儀和語音分析系統。 HRW 中國部高級研究員王松蓮(Maya Wang)說, 新疆就像是黑洞,一旦被吞噬進去就無法逃脫。 [10] [11]
在西方, 有人主張用臉部塗的雜亂彩妝及半遮臉部的奇特髮型來對抗無所不在的人臉辨識系統。 但吊詭的是, 這種可以躲過人臉辨識的妝扮, 卻恰恰好特別引人注目, 甚至讓上妝者處於一個不利的社會情境。 [12] 在中國, 這更不可能是個好的解決方案。 此外, 中國還有更先進的步態識別技術 (gait analysis), 有效距離高達數十公尺, 也不在識別乎標的是否戴上帽子/太陽眼鏡/口罩。
美國的科技大廠 -- 特別是蘋果電腦 -- 他們的愚民政策讓這個問題雪上加霜。 生物辨識技術 (biometrics) 從來就不是保護隱私的好方法; 但在蘋果的帶頭誤導之下, 指紋解鎖技術卻變成了令消費者趨之若鶩的尊貴功能。 事實上 iPhone 指紋解鎖剛出現不久, 德國黑客就公佈了破解方法, 並提醒大家: 「我們希望這可以終結人們對於指紋生物特徵(作為鑰匙)的幻想。 這種天天到處留跡又一輩子無法更改的東東拿來當做保安的鑰匙真是愚不可及。 大家別再被這些生物特徵產業的安全謊言給騙了。 這種技術適合(政府)拿來壓迫與控制,不適合用來作為平日的開機鑰匙。」 [13] 遺憾的是: 幾年下來, 不見主流媒體/教育體系/社會大眾覺醒, 只見同性質的生物辨識技術 (例如以臉解鎖、 虹膜解鎖、 聲紋解鎖) 越來越流行。 有一篇文章標題為 「指紋是帳戶名稱, 不是密碼」 應該值得更高的曝光率。 [14]
在此同時, 又有 AI 可以根據每個人過去的行為預測他接下來犯罪的可能性。 正在開發這種技術的國家至少包含中國、 美國、 日本等等。 能夠預防重大犯罪固然是好事; 但是在犯罪行為發生之前, 如果警方事先採取的預防措施反而嚴重侵犯人權, 那又會是什麼樣的場景呢? 如果是誤判呢?
在一個 「不正確的性傾向會被認定為犯罪」 的國家使用人臉辨識及預知犯罪技術, 又會是什麼情境呢? 史丹佛大學開發出一個可以判別兩張照片當中何者為同性戀的 AI 程式, 遭到 LGBT 團體抗議。 開發者 Michal Kosinski 表示: 這個研究的目的恰恰就是要警告大眾這種危險的技術確實存在。 他並且指出: 這也部分支持 「性傾向有一部分是天生的、 無法勉強改變的」 這樣的論述。 [15] 他並沒有釋出程式碼; 但很可以想像各大強國的研究機構絕對有能力自行開發出類似功能的 AI。 我們不禁要問的是: 會不會被哪個國家的恐同政府拿來作為 「預測犯罪」 的依據? 誤判的時候又會發生什麼事?
更普遍地來說, 如果你餵給人工智慧的原始資料蒐集自一個懷有偏見的社會或社群, 那麼這個人工智慧自然也就會帶有相同的偏見。 [16] 有一些偏見可能有部分的事實支撐; 另一些偏見則是文化 (例如語言習慣) 造成。 認真地想要研究這些偏見的形成及因應之道已經很困難了; 如果一個沒有反省能力 (甚至禁止反省言論) 的集權社會恣意地使用懷有偏見的人工智慧, 甚至將它的判斷列為重要的法律依據, 後果將更加不堪設想。
再乘上 「行為思想全面監控的芝蔴信用」 及 AI 搜尋的能力, 這意謂著掌握國家等級大數據及 AI 技術的人士, 將站在一個制高點上, 有能力透過資訊不對等, 以各種隱私資訊威脅政敵或其他利害關係人。
就在聯合國討論自動武器議題的同時, 柏克萊大學教授 Stuart Russell 及未來生活學院釋出一部假想的殺手機器人短片 Slaughterbots, 警告大眾自動武器的危險性。 設想幾位具有高技術能力的偏激份子痛恨某個特定的政治主張 X。 他們用網路爬蟲橫掃 facebook、 instagram、 twitter 等等公開的社交媒體、 用文本分析人工智慧找出幾十位最具影響力 X 的支持者、 針對這些支持者的帳號分析其日常行蹤、 派出一群小型自駕無人機前往這些地點、 以人臉辨識技術找到這些支持者、 最後用極少的彈藥近距離射殺這些 X 的支持者。 [17]
這部影片所描述的並不是遙遠的未來。 這些個別的技術雖然未臻完美, 但都已經存在, 而且其中有一些甚至是開放原始碼的軟體。 人工智慧技術被惡意人士拿來濫用, 這是無法避免的事; 剩下的只是時間、 地點、 規模、 效果的問題。 但重點也並不是恐慌不確定的未來, 甚至是反科技, 而是社會應該要知道新技術帶來的新型態威脅, 並且採取一些低成本的防護措施來提高這類攻擊的困難度、 降低它的傷害性。
Slaughterbots 影片引發許多討論。 隨後便有 OpenAI、 EFF 等等機構共 26 位作者撰寫了一份報告 「The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation」 更通盤地設想人工智慧可能帶來的各種新型態威脅。 [18]
這份報告只專注於惡意應用; 意外或伴隨的傷害、 人工智慧所所成的系統性/結構性問題 (例如大量失業) 並不在它的討論之列。 它將威脅分為數位安全、 實體安全、 政治穩定三大類, 並指出人工智慧的影響面向包含: 擴大了既有危害的規模、 創造出新型態的危害、 改變危害的特性。
所謂擴大規模, 在魚叉式網路釣魚的例子及 slaughterbots 的例子裡可以看到: 躲在群眾裡不再保證安全。 以前有些針對性的攻擊因為需要耗費攻擊者的研究心力, 所以我們以為那些事只會發生在少數名人、 有錢人、 或其他少數特定高風險人士身上; 但人工智慧讓客製化攻擊的成本降得很低, 也就是讓更多的一般人曝露於這類攻擊的風險當中。
所謂新型態的危害, 像是造假的影片及模仿受害者熟人的聲音都屬於這類。 又例如採用人工智慧的公司或機關組織, 可能會遇到針對人工智慧弱點的新型態攻擊, 這當然也是過去不曾存在的危害。 再來, 過去有些惡意軟體仰賴控制中心 (command and control) 讓潰客可以從遠端操作; 但未來具有人工智慧能力的惡意軟體則有機會 (在沒有網路連線的情況下) 獨立運作完成更多任務。
這個 「獨立運作」 的特性, 還會提高追查犯罪行為人的難度。 這也就是改變危害的特性的一個例子。
一項新科技對社會可能有正面及負面的影響。 正面的影響又可分為使用價值跟販售價值兩部分。 長期以來, 臺灣資訊科技政策重創新、 輕擴散、 無視風險, 幾乎都只把目光集中在新科技的販售價值。 導入電子書包的價值扭曲爭議過程就是一個明顯的案例。 [19] [20]
如本文所述, 人工智慧將會在很多面向替社會帶來很不一樣的風險與挑戰。 單就法律領域來說, 除了智慧財產權之外, 還有本文未談及的自動駕駛車車禍、 人工智慧/機器手術醫療糾紛、... 等等究責問題, 都需要法律界專家的參與討論。 生物識別技術的人工智慧議題迫切需要人權及隱私團體的關注。 傳播及媒體領域的學者可能會關心假新聞與詐騙議題。 即使是資訊領域裡面, 人工智慧技術也並不是大家都有足夠的基本認知。 國家政策如果持續只鼓勵資訊安全專家把新穎的加密演算法 發表到知名期刊上或變成專利做技術移轉, 那會遺漏掉很多重要的事。 事實上, 涉及風險管理的資訊安全領域長期以來一直是臺灣的弱項。 [21] 最近物聯網上的嚴重資安問題已經開始浮現了; 未來即將大規模出現的人工智慧資安攻防更很可能會欠缺專家人力。 至於對岸政府有沒有可能利用人工智慧技術以最小的人員傷害破壞我國的某種基礎建設, 這類的國家安全/國防議題, 更是需要政府正視。 STS 社群在人工智慧技術的風險面向, 將扮演極重要的角色。
人工智慧技術有極高的使用價值, 但需要非資訊領域的人了解它的潛力與可能性之後, 才更容易想像出它的應用。 就像數學有極高的使用價值, 但需要非數學領域的人了解它的潛力與可能性之後, 才更容易想像出它的應用。 一個社會如果把所有數學高手都投入創造販售價值 (販賣數學定理) 的數學產業, 而沒有數學高手進入其他產業去發現、 發揮其使用價值, 這不會是一個有競爭力的社會。 還好在許多科系裡都開設有數學課程。 但是非資訊科系裡的電腦課呢? 很遺憾地, 過去幾十年來由商業力量主導的微軟 Office 等等證照佔了技職教育體系電腦通識課程的大宗。 如果臺灣希望享受到人工智慧的使用價值, 那麼應該要更有意識地全盤在通識課程當中介紹人工智慧的基本原理與潛力。 至於 STS 社群所發掘/提醒的未來風險, 也需要透過通識課程才能進入大眾的眼耳。 這是臺灣目前的資訊通識教育完全沒有準備面對的事。
另一方面, 臺灣的各種條件是否能夠 (像過去的電子產業一樣) 在人工智慧技術市場上創造很多販售價值? 目前看起來並沒有非常明顯的支持論點。 如果臺灣沿續過去忽視使用價值及風險控管的政策與學術文化, 前途將令人擔憂。 在這個領域繼續強調販售價值, 我們甚至還有可能會受到鄰近的中國市場的吸引, 參與一些爭議性的開發。 因為中國除了有大量的優秀技術人才之外, 人權及隱私意識不彰並且同樣欠缺風險意識的環境, 反而有利於全面監控、 取得並且無限制應用大數據。 因此中國極有可能在人權爭議當中變成人工智慧應用於健康/醫療/監控領域的全球最先進國家。
最後, 謹以 malicious use 這份報告的建議來作為本文的結語: 政策決策者應與研究人員溝通、 強化研究人員與工程師的工程倫理意識、 從相對成熟的資安領域借鏡、 擴大利害關係人及各領域專家進入對話。 但也不要忘記該份報告涵蓋範圍之外的議題, 還需要有更多 STS 視角的研究。