【揭發臉書等巨頭,如何蓄意操控人的意向和全球政治風向】 紐時專欄記者 Max Fisher 耗時近五年,採訪多位矽谷業內專家、吹哨者,彙整許多紥實的科學實驗報告,推出個人處男作《The Chaos Machine: The Inside Story of How Social Media Rewired Our Minds and Our World》 美新聞台主持人先爆本書的大內幕:「打造社交平台的科技巨頭,不讓親骨肉使用自家產品。」[1],[2] Fisher知道問題一直都在,只是苦無證據,現在他握有鐵證直指社交平台: (一)改變大腦裡的神經傳遞質(Brain Chemistry):社交平台的演算法是蓄意設計成讓使用者在看所接收到的內容易上癮。 (二)改變心情妝容(Emotional Makeup):不論是不是待在平台上,就算是在離線的真實人生,心情都被牽著走。 (三)改變自我認知的身份認同感:對於非我族類的排他性強,易產生敵意。 (四)改變是非判斷力和道德觀:社交平台扭曲了人在道德上的判斷,恐讓人是非不分。 【打造四海一家平台的初衷,何以質變成分裂加速器?】 目前各大社交平台對人們和全球政治風向的負面影響,儘管並非科技巨頭當初打造中立性平台的本意,可是他們之所以繼續誤導人們認知和判斷的操控模式,是因為廣告收益利字當頭。 當使用者(天真地)以為在社交平台上看到的都是朋友圈或有訂閱、感興趣的內容,事實上,各大社交平台背後強大的 A.I. 透過演算法設計出、作者稱之為殘酷的「介入極大化功能」(Engagement Maximizing Feature),透過使用者過往的歷程記錄,預判使用者的好惡,而呈現有利於操控情緒的內容,提高使用者的上網時間和平台黏著度,如此即可放大廣告效益帶來龐大收益。 訪談提到書中引用的兩項實驗: 一、請原先三不五時就上臉書的受測者,移除app四個禮拜後,他們表示自己變得比較快樂、生活滿意度提高(達到有如接受心理治療的1/3成效,而且不花錢),更重要的是變得沒那麼偏激,看待新聞事件和非同溫層的人,有更開放的態度。 二、既便受測者在一開始就表示不願意收到會引起「怒意」(outrage)的訊息,實驗者在餵幾次易挑起怒意的假訊息後,那些人接受度變高,內化了易怒感。社交平台蓄意設計演算法,可以自動偵測出易怒訊息,系統再把易怒訊...