美學者揭科技業腦控手段(下)
艾普斯坦表示,谷歌設計的推薦方式是,把一款「由他們判定較佳的」網頁,放在另一款的前面,像是挑選寵物食品時,會有某一款產品排名較前,選擇名牌時亦會如此,更遑論是政治候選人了;簡言之,在谷歌搜索演算法中,沒有建置平等的規則。
艾普斯坦認為,這樣的電腦演算法「非常可怕」,因為這代表著演算法正在挑選人們購買的產品、選舉的贏家、甚至是「我們應該想什麼」。他說:「如果演算法正在決定誰管理世界,誰管理世界上許多國家,這對人類來說不可能是好事。畢竟它們還不夠聰明,不能為我們做出好的決定。」
電腦程式包含人為偏見
對此情況,很多人會說:「這只是計算後的自然結果,沒關係的。」然而,這個過程其實包含人為因素。艾普斯坦表示,團隊在研究中發現,演算法的建構包含了工程師的偏見。
艾普斯坦表示,谷歌和矽谷其他科技公司在政黨捐款中,把96%分配給民主黨,這也是他喜歡的黨派。不過他指出,這些公司有很多政治偏見,工程師的偏見會被納進演算法中,最終結果則會出現偏見。谷歌承認每年調整其搜索演算法超過三千次,大約每天10次。艾普斯坦直言,人類正在調整並改變演算法的結果。
吹哨人:谷歌設有「黑名單」
艾普斯坦表示,參議員布萊克本(Marsha Blackburn)2019年曾在美國參議院司法委員會的聽證會上,詢問時任谷歌公共政策副總裁巴提亞(Karan Bhatia),谷歌是否有所謂的「黑名單」?巴提亞當時表示:「在搜索結果中,我們沒有使用黑名單或白名單來偏袒政治立場。」
不料,在幾週後就出現了一名吹哨人。一名曾在谷歌當了八年半的高級軟體工程師沃爾斯(Zach Vorhies)檢舉了谷歌,他離職時帶走的超過950頁的文件和一段2分鐘的影片,在這些文件中有三份文件被標記為「黑名單」。
解決方式:大規模監測
艾普斯坦表示,根據團隊在2020年總統大選時的監測調查,谷歌會出現強烈的自由主義偏見,但在Bing和雅虎上沒有發現這樣的問題。根據監測結果,在YouTube上,被谷歌Up Next計算方式推薦給人們的影片,有高達93%來自強烈的自由派新聞來源。
艾普斯坦最後提出了解決方案,即在全美50個州進行永久的、大規模的監測,全天候監測並阻止這樣的事情發生。他說:「如果我們進行監控、把它抓起來、存檔、然後予以曝光,那麼他們將無法插手我們的生活。他們(科技公司)仍然能致富,但是他們會把我們的自由、公平的選舉歸還給我們。」◇