美學者揭科技業腦控手段(下)

【記者Jan Jekielek/報導、賴意晴/編譯】
美國著名心理學家及數據分析師艾普斯坦(Robert Epstein)研究發現,大型科技公司可以在人們意識不到的狀態下,利用網路搜尋引擎的結果排名,默默的改變人們的決定、操縱著人們;他提出,美國政府應對科技公司進行永久性的大規模監測,使其無法插手大眾的生活,把自由、公平的選舉歸還人們。

艾普斯坦表示,谷歌設計的推薦方式是,把一款「由他們判定較佳的」網頁,放在另一款的前面,像是挑選寵物食品時,會有某一款產品排名較前,選擇名牌時亦會如此,更遑論是政治候選人了;簡言之,在谷歌搜索演算法中,沒有建置平等的規則。

艾普斯坦認為,這樣的電腦演算法「非常可怕」,因為這代表著演算法正在挑選人們購買的產品、選舉的贏家、甚至是「我們應該想什麼」。他說:「如果演算法正在決定誰管理世界,誰管理世界上許多國家,這對人類來說不可能是好事。畢竟它們還不夠聰明,不能為我們做出好的決定。」

電腦程式包含人為偏見

對此情況,很多人會說:「這只是計算後的自然結果,沒關係的。」然而,這個過程其實包含人為因素。艾普斯坦表示,團隊在研究中發現,演算法的建構包含了工程師的偏見。

艾普斯坦表示,谷歌和矽谷其他科技公司在政黨捐款中,把96%分配給民主黨,這也是他喜歡的黨派。不過他指出,這些公司有很多政治偏見,工程師的偏見會被納進演算法中,最終結果則會出現偏見。谷歌承認每年調整其搜索演算法超過三千次,大約每天10次。艾普斯坦直言,人類正在調整並改變演算法的結果。

吹哨人:谷歌設有「黑名單」

艾普斯坦表示,參議員布萊克本(Marsha Blackburn)2019年曾在美國參議院司法委員會的聽證會上,詢問時任谷歌公共政策副總裁巴提亞(Karan Bhatia),谷歌是否有所謂的「黑名單」?巴提亞當時表示:「在搜索結果中,我們沒有使用黑名單或白名單來偏袒政治立場。」

不料,在幾週後就出現了一名吹哨人。一名曾在谷歌當了八年半的高級軟體工程師沃爾斯(Zach Vorhies)檢舉了谷歌,他離職時帶走的超過950頁的文件和一段2分鐘的影片,在這些文件中有三份文件被標記為「黑名單」。

解決方式:大規模監測

艾普斯坦表示,根據團隊在2020年總統大選時的監測調查,谷歌會出現強烈的自由主義偏見,但在Bing和雅虎上沒有發現這樣的問題。根據監測結果,在YouTube上,被谷歌Up Next計算方式推薦給人們的影片,有高達93%來自強烈的自由派新聞來源。

艾普斯坦最後提出了解決方案,即在全美50個州進行永久的、大規模的監測,全天候監測並阻止這樣的事情發生。他說:「如果我們進行監控、把它抓起來、存檔、然後予以曝光,那麼他們將無法插手我們的生活。他們(科技公司)仍然能致富,但是他們會把我們的自由、公平的選舉歸還給我們。」◇
延伸閱讀
谷歌不想挨罰 擬釋出YouTube廣告
2022年06月14日 | 2年前
美工程師:AI程式有自我意識
2022年06月14日 | 2年前
谷歌廣告一條龍 美議員要求分拆
2022年06月12日 | 2年前
調查:3/4美國人支持監管科技公司
2022年02月11日 | 2年前
擅自追蹤客戶 美三州起訴谷歌
2022年01月25日 | 2年前
cookies使用違規 谷歌被法國罰47億
2022年01月07日 | 2年前
谷歌同意支付德國媒體新聞費用
2021年11月19日 | 3年前
取消