第三部分 大數據時代的管理變革 08 掌控:責任與自由並舉的信息管理

●最重要的是,要確保個人動因能防範「數據獨裁」的危害——我們賦予數據本不具備的意義和價值。

相似的原理應當運用到政府領域之外,比如公司在進行關乎我們個人利益的重大決策時——僱用與解僱,同意按揭或者拒發信用卡。如果他們單純依據大數據預測作出這些決策,特定的防護措施就必須到位。

在大數據時代,我們需要設立一個不一樣的隱私保護模式,這個模式應該更著重於數據使用者為其行為承擔責任,而不是將重心放在收集數據之初取得個人同意上。這樣一來,使用數據的公司就需要基於其將對個人所造成的影響,對涉及個人數據再利用的行為進行正規評測。當然,並不是說任何時候都必須非常詳盡。

●第一,公開原則。因為這將直接影響到個人,所以必須公開用來進行預測分析的數據和演算法系統。

比如說,大數據強烈誘使我們隔離那些被預言將會犯罪的人們,以減少風險的名義對其進行不斷審查,即使他們確實在為尚不需承擔責任的事情接受懲罰。設想一下,「預測警務」的運演算法則鑒定某個青少年在未來五年內很可能犯重罪。結果,當局決定派遣一名社會工作者每月拜訪他一次以對其進行監視,並儘力幫助他解決問題。如果該少年及其親屬、朋友、老師或僱主將這種拜訪視為一種恥辱(這種情況極有可能發生),那麼這就起到了懲罰的作用,的確是對未發生的行為的懲罰。然而,如果這種拜訪完全不被視為懲罰,而只是為了減少問題出現的可能,即作為一種將風險降至最低的方式(在這裡指的是將破壞公共安全的犯罪風險減到最小),情況照樣好不到哪兒去。社會越是用干預、降低風險的方式取代為自己的行為負責,就越會導致個人責任意識的貶值。主張預測的國家是保姆式的國家,而且遠不止如此。否認個人為其行為承擔責任實際上就是在摧毀人們自由選擇行為的權利。

在大數據時代之前,這是明顯而基本的自由權利。事實上,明確到不需要進行說明。畢竟,我們的法律體系就是這樣運作的:通過評判人們過去的行為使之為其行為承擔責任。然而,有了大數據,我們就能預測人的行為,有時還能十分準確。這誘使我們依據預測的行為而非實際行為對人們進行評定。

保護個人責任也同樣重要。也許這一點很具有吸引力——社會無論何時做出關乎他人的決策時,都不再需要決策者們承擔責任。相反,它會將重心轉移到風險管理上,即評測可能性以及對其進行風險評估。有了所有看似客觀的數據,對我們的決策過程去情緒化和去特殊化,以運演算法則取代審判員和評價者的主觀評價,不再以追究責任的形式表明我們的決策的嚴肅性,而是將其表述成更「客觀」的風險和風險規避,聽起來都是不錯的主意。

●第二,公正原則。具備由第三方專家公證的可靠、有效的演算法系統。

未來的隱私保護法應當區分用途,包括不需要或者只需要適當標準化保護的用途。對於一些危險性較大的項目,管理者必須設立規章,規定數據使用者應如何評估風險、如何規避或者減輕潛在傷害。這將激發數據的創新性再利用,同時也確保個人免受無妄之災。

通過保證個人動因,我們可以確保政府對我們行為的評判是基於真實行為而非單純依靠大數據分析。從而,政府只能依法對我們過去的真實行為進行追究,而不可以追究大數據預測到的我們的未來行為;或者,在政府評判我們過去的行為時,也應該防止單純依賴大數據的分析。例如,在對兩家涉嫌操縱價格的公司進行調查時,我們完全可以藉助大數據分析先作出大概判定,然後監管機構再以傳統手段立案和進行調查。不過,當然不能只因為大數據分析預測它們可能犯罪,就判定其有罪。

大數據洞察

除了管理上的轉變,即從個人許可到數據使用者承擔相應責任的轉變,我們也需要發明並推行新技術方式來促進隱私保護。一個創新途徑就是「差別隱私」:故意將數據模糊處理,促使對大資料庫的查詢不能顯示精確的結果,而只有相近的結果。這就使得挖出特定個人與特定數據點的聯繫變得難以實現並且耗費巨大。

大數據洞察

大數據管理的基本支撐是保證我們依然是通過考慮他人的個人責任對其進行評判,而不是藉助「客觀」數據處理去決定他們是否違法。只有這樣,我們才是把其當作人來對待——當作有行為選擇自由和通過自主行為被評判的人。這就是從大數據推論到今天的無罪推定原則。

內部演算法師

大數據洞察

將責任從民眾轉移到數據使用者很有意義,也存在充分的理由,因為數據使用者比任何人都明白他們想要如何利用數據。他們的評估(或者由他們所僱用的專家制定的評估)避免了商業機密的泄露。也許更為重要的是,數據使用者是數據二級應用的最大受益者,所以理所當然應該讓他們對自己的行為負責。

1450年前後,古登堡發明了活字印刷機,在這之前,思想的傳播受到了極大的限制。一方面,書籍大多被封禁在修道院的圖書館裡,依照天主教精心制定的規定,被僧侶嚴格看守著,為的是確保並維護其統治地位。在教堂之外,少數幾所大學也收藏了一些書籍,大概幾百本的樣子;15世紀初,劍橋大學圖書館大概有122本大部頭。另一方面,讀寫水平的欠缺也是當時信息傳播受限的一個重要因素。

大數據洞察

大數據將要求一個新的人群來扮演這種角色,也許他們會被稱作「演算法師」。他們有兩種形式:在機構外部工作的獨立實體和機構內部的工作人員——正如公司有內部的會計人員和進行鑒證的外部審計師。

這些新的專業人員會是計算機科學、數學和統計學領域的專家,他們將擔任大數據分析和預測的評估專家。他們必須保證公正和保密,就像現在的審計員和其他專業人員所做的一樣。他們可以評估數據源的挑選,分析和預測工具的選取,甚至包括運演算法則和模型,以及計算結果的解讀是否正確合理。一旦出現爭議,他們有權考察與分析結果相關的運演算法則、統計方法以及數據集。

●第三,可反駁原則。明確提出個人可以對其預測進行反駁的具體方式(這類似於科學研究中披露任何可能影響研究結果的因素的傳統)。

對大數據使用進行正規評測及正確引導,可以為數據使用者帶來切實的好處:很多情況下,他們無須再取得個人的明確同意,就可以對個人數據進行二次利用。相反地,數據使用者也要為敷衍了事的評測和不達標準的保護措施承擔法律責任,諸如強制執行、罰款甚至刑事處罰。數據使用者的責任只有在有強制力規範的情況下才能確保履行到位。

為了管理這些新興行業,美國制定了適應性極強的反壟斷條例。最初是在19世紀為鐵路行業制定的,後來又被應用到了掌管商業信息的其他公司,從20世紀最初十年的國家收銀機公司(National Cash Register),到20世紀60年代的IBM、70年代的施樂公司、80年代的AT&T、90年代的微軟和今天的谷歌。這些公司所開闢的技術成了經濟結構中「信息基礎設施」的核心組成部分,所以為了防止它們壟斷,法律的支持必不可少。

數據之於信息社會就如燃料之於工業革命,是人們進行創新的力量源泉。沒有大量鮮活的數據和健全的服務市場,這些創新就實現不了。

目前,計算機系統做出決策的方式是基於程序明確設定所需遵循的規則。這樣,如果它們的決策出錯(這是不可避免的),我們就可以回過頭來找出計算機做出錯誤決策的原因。「為什麼外部感應器遭遇空氣濕度激增的情況時,智能飛行系統使飛機上升了5度?」等。現在的計算機編碼能被解碼、檢查,並且可以解讀其決策依據——無論多麼複雜,至少對於懂得如何解碼的人不存在問題。

在法庭上,個人對自己的行為負有責任。一番公正的審訊之後,審判員會做出公平公正的判決。然而,在大數據時代,關於公正的概念需要重新定義以維護個人動因的想法:人們選擇自我行為的自由意志。簡單地說,就是個人可以並應該為他們的行為而非傾向負責。

外部演算法師

數十年來,全球範圍內的隱私規範都開始讓人們自主決定是否、如何以及經由誰來處理他們的信息,把這種控制權放在了人們自己手中,這也是隱私規範的核心準則。在互聯網時代,這個偉大的理想往往會演變成「告知與許可」的公式化系統。

如果2004年美國國土安全部配備有一名演算法師,它也許不會生成一份這麼差勁的禁飛名單,竟然把馬薩諸塞州參議員特德·肯尼迪都列入了其中。最近在日本、法國、德國和義大利,演算法師也可以發揮作用,這些國家的很多人認為谷歌的「自動完成」特徵程序誹謗了他們。這是一個生成與姓名相關的普遍搜索詞的程序,它很大程度上

上一章目錄+書簽下一頁