曬著照片、聊著天,怎么就有人覺得我要犯罪了呢?
《少數(shù)派報告》《疑犯追蹤》這樣的影視作品或許只能在前些年出現(xiàn)。如果是近幾年的影視作品,觀眾看著就會很「心慌」。
犯罪預防、預測模型、用系統(tǒng)推測未發(fā)生之事……這意味著大量的信息會被收集,也意味著你將會被一個未知系統(tǒng)判定是否有威脅。把命運交給未知的感覺,估計沒幾個人喜歡。
但不喜歡可能也沒辦法,因為在你不知道的時候,已經(jīng)有越來越多公司在收集你的公開信息,來從你社交網(wǎng)絡的日常內容中判斷你犯罪的可能性。
社交媒體變身最大「告密者」,這是一場自我揭發(fā)?
Voyager、Kaseware、Aura、PredPol、Palantir,這是一部分正在試圖通過社交網(wǎng)絡找出潛在威脅的公司,它們中很大一部分還和當?shù)氐木炀诌M行了合作,走在預測犯罪的前列。
從每個人的社交媒體中獲得需要的信息是這類公司的核心,他們通過用戶做社交網(wǎng)絡發(fā)布的內容來預估對方是否有犯罪的可能。這類公司的算法并不相同,但基本都在通過人工智能破譯用戶的線上,從用戶分享的內容中判斷主體是否已經(jīng)犯罪、可能犯罪或堅持某種危險的意識形態(tài)。
這其實不算一個新進展,畢竟在 2012 年就有人將社交網(wǎng)絡成為「城市脈搏」。你很難看到一個空間和產(chǎn)品同時容納如此多的用戶,還讓他們愿意在上面分享自己的一切。
社交網(wǎng)絡的特性為人們尋找目標創(chuàng)作了條件,學生在社交網(wǎng)絡尋找受訪對象,統(tǒng)計機構在社交網(wǎng)絡預測大選結果,也有 AI 偵探想要在社交網(wǎng)絡找出罪犯。
因為人人都用社交網(wǎng)絡,所以社交網(wǎng)絡很多時候可以反應一個人的真實情況。美國密歇根州的眾議員 Tyrone Carter 認為警方搜索公共社交網(wǎng)絡的行為并沒有違背任何的法律,也沒有侵犯用戶的權利,所以這種預測是可行的。
當你在公共頁面上點擊發(fā)送的那一刻,那個帖子就不再是你的了。人們會因為他們發(fā)布的東西而陷入各種麻煩,因為社交媒體是我見過的最大的「自我告密者」。
但秘密只有在引導的時候,才會被說出。和洛杉磯警察局合作的 Voyager Labs 在這個過程中就擔當了引導者的角色。只是非營利組織 Brennan Center 通過洛杉磯警察局提供的公開信息發(fā)現(xiàn),Voyager 工作也涉嫌種族歧視、侵犯隱私。
Voyager 這類公司的工作方式并不復雜。它會收集一個人社交媒體上的所有公開信息,包括帖子、聯(lián)系人甚至常用的表情符號。在某些特殊情況下,它會利用這些公開的信息與非公開信息交叉引用,進行進一步的分析和索引。
Voyager 會基于個人社交媒體的參與話題做出判斷
通過 Voyager 的服務,警察可以清晰地看到一個人的社交關系。他們的聯(lián)系是怎樣的,他們在社交平臺是如何互動的。更進一步,Voyager 甚至可以探測到兩個用戶之間是否有間接聯(lián)系(兩人都有至少四個相同好友)。
聽上去好像只是看看用戶在社交網(wǎng)絡上做些什么,用作調查的輔佐信息。但事實上,Voyager 不僅收集信息,展示信息,它也會做出判斷。
Voyager 會通過社交網(wǎng)絡關系鏈做出判斷預測
Voyager 在提交給洛杉磯警局的一份白皮書中就提到了一起襲擊案件,該案件具體地展示了平臺的做法——AI 在沒有人介入的情況下會根據(jù)人們在社交網(wǎng)絡發(fā)帖的內容完成自動審查和分類(分別為用戶標記藍色、橙色、紅色三種顏色)。
在具體案例中,槍擊案嫌疑人 Adam Alsahli 就因為自己在 Facebook 和 Instagram 上發(fā)布的伊斯蘭主題照片,被系統(tǒng)判定為「對阿拉伯傳統(tǒng)有強烈自豪感與認同感」。因此,Adam Alsahli 在發(fā)動具體的攻擊前就被 Voyager 的人工智能工具打上了橙色的顏色標記。
這可以是一個成功預測潛在犯罪者的案例,同時也是一個充滿「偏見」的案例。
槍擊案嫌疑人 Adam Alsahli 的社交媒體信息,在他犯罪之前就已經(jīng)被標記為橙色
數(shù)據(jù)預測犯罪?但數(shù)據(jù)也不能完全相信
這些結論真的可信嗎?他們是根據(jù)什么做出判斷的呢?大數(shù)據(jù)下每個人要如何自證清白?
目前確實有不少數(shù)據(jù)證實社交網(wǎng)絡的內容偏向和犯罪事實的相關性,但這并不是一個 100% 關聯(lián)的數(shù)據(jù)。
紐約大學坦登工程學院和全球衛(wèi)生公共學院發(fā)布的研究結果顯示,Twitter 上關于種族仇恨言論數(shù)量較多的城市,相關的犯罪率也更高;芬蘭亦有研究表明,根據(jù)二十年的數(shù)據(jù),溫度每升高 1°C,犯罪活動就會增加 1.7%;美國研究證明,周末晚上的車輛盜竊率激增;被證明過的還有當?shù)刈闱蜿犚馔廨斍驎r,家暴事件會增加 10%。
但這些并不能證明什么,因為概率和事實是不同的。
即便有相關數(shù)據(jù)背書,也不能證明在種族仇恨言論最多的城市,夏天周末的晚上就一定會有車輛被盜,炎熱天氣遇到當?shù)刂麝犦斍?100% 就會有更多的家暴案件發(fā)生。
類似的犯罪預測系統(tǒng)是根據(jù)已有的犯罪事實和研究結果進行反推的,這造成的另一個問題是它充滿了「刻板印象」。
圖靈獎得主楊立昆就曾表示,當數(shù)據(jù)有偏見時,機器學習系統(tǒng)就變得有偏見。而具體到單一案例,當機器學習接收到的信息是監(jiān)獄中男性黑人用戶占比較大時,這樣的系統(tǒng)可能就會做出黑人男性更容易犯罪的判斷。
對機器學習來說,「黑人男性更容易犯罪」可能是數(shù)據(jù)分析的事實,但落在現(xiàn)實中這就會是種族偏見和差別對待。
暗中將用戶進行評級,劃分哪些更有威脅性,對于有威脅的人進行更密切的追蹤和預防就是整套系統(tǒng)的運行邏輯。
類似的創(chuàng)業(yè)公司會用算法和人工智能來解釋他們處理、分析信息,從而做出判定的過程。盡管目前沒有證據(jù)證明這種預測是有效的,來自民眾的質疑也很多,警察局卻依舊想要和類似的平臺進行合作。
對警察來說,這類工具很有吸引力,如 Voyager 這類平臺在社交網(wǎng)絡的發(fā)現(xiàn)可以提供用戶側寫的有效輔助,也可以不錯過線上的細微線索。如果僅僅是輔助調查,這就會是非常有效的工具。但工具發(fā)展到后期,開始發(fā)揮預測犯罪的作用時,也會成為傷人的利器。
經(jīng)過前些年的狂熱后融資后,不少 AI 產(chǎn)品已經(jīng)進入了應用階段。但在某些領域,它們依舊是輔助者的角色。
醫(yī)療就是一個對于 AI 介入慎之又慎的領域,即便是在進展最快的 AI 醫(yī)學影像領域,今天的 AI 技術依然無法保證 100% 的正確率,需要人類醫(yī)生的介入。因為人人都知道,醫(yī)療是一個需要近乎 100% 正確率的行業(yè),任何的偏差和錯誤都可能造成嚴重的后果。
而警務領域同樣是一個力求 100% 正確的領域,任何的臆測推斷在缺乏證據(jù)的支撐下亦會造成嚴重的后果。一個在社交媒體上發(fā)表各種歧視、暴力言論的人可能會被標為潛在犯罪者,有 90% 的可能性進行暴力犯罪,但在他真的做出犯罪行為前,他就是一個普通人。
在總體的數(shù)據(jù)集之中,我們永遠不能忽略每個人都是獨立的個體。
圖片來自:《少數(shù)派報告》
本文來自微信公眾號“愛范兒”(ID:ifanr),作者:冷思真,36氪經(jīng)授權發(fā)布。