Meta Threads「Dear Algo」:用自然語言告訴AI你想看什麼的社交新時代

文章重點

  • Meta在Threads推出「Dear Algo」功能,讓用戶以自然語言自訂內容推薦演算法
  • 4億Threads用戶可直接輸入偏好指令,如「少推政治內容、多推科技和旅遊」
  • 功能基於Meta的Llama模型,理解複雜的自然語言偏好描述
  • 開創社交媒體從「被動接受推薦」到「主動定義推薦」的範式轉變
  • 引發關於「過濾氣泡」加劇和演算法透明度的新一輪討論

演算法的民主化

2月11日,Meta在Threads上推出了一項看似簡單但意義深遠的功能:「Dear Algo」。用戶可以用自然語言直接告訴推薦演算法自己想看什麼、不想看什麼。

這個功能的使用方式極其直觀:用戶只需在設定頁面中輸入類似「我想看更多關於AI和科技的內容,少一些政治爭論」或「多推旅遊攝影和美食,不要推名人八卦」這樣的自然語言指令。

從「猜測」到「對話」

4億
Threads月活用戶
自然語言
偏好輸入方式
Llama
底層AI模型
即時
推薦調整生效速度

傳統的社交媒體推薦系統依靠「猜測」用戶偏好——通過分析點擊、停留時間、互動等行為信號來推斷用戶想看什麼。這種方法的問題在於,它往往會放大用戶的衝動行為(如刷到爭議內容停留較久),而非真正的偏好。

「Dear Algo」將這個過程從「猜測」轉變為「對話」。用戶可以明確表達自己的意圖,而不是讓AI從行為中推斷。

技術實現

「Dear Algo」的底層依賴Meta的Llama大型語言模型。當用戶輸入自然語言偏好時,Llama模型將其解析為結構化的偏好向量,然後與Threads的推薦系統集成。

智慧的平衡

Meta的工程團隊表示,系統不會完全照搬用戶的指令。例如,如果用戶要求「只看同意我觀點的內容」,系統仍會適度保留多元觀點。Meta稱這是為了「避免極端的信息繭房」。此外,系統會在用戶的明確偏好和探索性內容之間維持一定比例(據報導為80/20),確保用戶仍能接觸到新鮮內容。

過濾氣泡的新爭議

「Dear Algo」的推出立即引發了關於「過濾氣泡」(filter bubble)的新一輪討論。批評者擔心,讓用戶完全控制推薦內容可能加劇信息繭房效應,使人們只接觸到強化自身觀點的內容。

然而,支持者反駁稱,現有的演算法推薦系統已經在創造過濾氣泡——而且是以用戶不透明、不可控的方式。「Dear Algo」至少讓這個過程變得透明和可控。

對廣告模式的影響

從商業角度看,「Dear Algo」對Meta的廣告模式有深遠影響。明確的用戶偏好數據比行為推斷數據更有價值,因為它直接反映了用戶的意圖。廣告主可以根據用戶自述的興趣進行更精準的定向,而非依賴行為信號的間接推測。

這也可能成為Meta應對Apple隱私政策限制的一個策略:與其依賴跨應用追蹤(已被iOS嚴格限制),不如直接讓用戶主動表達偏好。