宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

你的觀點,真的不是 AI「灌」給你的嗎?

2023年05月15日 首頁 » 熱門科技

 

你的觀點,真的不是 AI「灌」給你的嗎?

 

我們和工具的關係,從來都不只是「使用」和「被使用」。

雖然 ChatGPT 讓更多人關注到 AI 的潛力,但融入了 AI 的工具,我們其實使用已久。然而,我們對於工具於人的影響,相關研究認知還是偏少。

不少人已經知道,社交媒體平台的推薦算法,不僅讓手機「越來越好刷」,同時也以「猜你喜歡」來把用戶捲入資訊繭房。

那些自動糾正拼寫、自動生成郵件回復、生成 PPT 的 AI 工具,你也許會覺得是自己在指揮它們工作,但這些工具真的不是你想像中「中性」。

寫著寫著,你就被說服了

 

你的觀點,真的不是 AI「灌」給你的嗎?

 

越來越多研究指出,AI 工具在人們沒意識到的情況下改變人們的想法。

其中一個最新研究指出,當被研究對象用 AI 來輔助寫論文,AI 會根據自身偏見,推動研究對象去寫一篇支持或反對特定觀點的論文。

同時,寫論文這個過程也會大幅影響用戶對這個話題的看法。

康奈爾大學的 Mor Naaman 將這稱為「隱性說服」,並表示人們「可能根本不知道自己在被影響」。

AI 雖然能讓人更高效,但也會潛移默化地改變人的觀點。

而且,AI 改變人的方式更像一個人通過合作和社會活動去改變說服另一個人,沒那麼像社交媒體對我們的影響方式。

另一份研究則針對了 Gmail 的智能回復功能。

在這個功能輔助下,人們會發出更積極的回覆,用戶間的交流溝通也更加積極。

第二個研究則指出,這種自動回復,也會讓接收者認為發出的人更溫暖和願意合作。

考慮到微軟和 Google 等公司都在將 AI 有機地融入到各個辦公軟體里,AI 對人們進一步的影響也近在咫尺。

在最壞的情況下,掌握權力和技術的人,能夠通過這些看似無害,還能提高生產效率的工具來推動和影響人們對特定事物的態度。

和社交媒體上應用的推薦算法、過濾泡泡和兔子洞外相比……這裡最有趣的地方在於其「隱秘性」。

發現了這個情況的研究員認為,最佳的防禦方式是讓人們意識到這個問題的存在。

而從更長期來看,管制要求 AI 保持透明化也是另一種方式 —— 讓用戶知道特定 AI 持有的是怎樣的偏見。

哥倫比亞大學教授 Lydia Chilton 指出,當人們了解 AI 具體持有什麼偏見,並選擇將此偏見為己所用,決定在何時使用,人們就會重新獲得自主性。

是「偏見」,也是一種「目標觀」

 

你的觀點,真的不是 AI「灌」給你的嗎?

 

AI 無「價值觀」,但因為訓練素材和調教的人有價值偏向,所以 AI 會有偏見。

研究人員認為,這種偏見,在某些程度上能幫助我們了解特定群體對特定事件的態度。

然而,在利用前,我們要先研究清楚,AI 的偏向是什麼。

Tatsunori Hashimoto 博士和同事們想到了一種方法 —— 讓 AI 來做問卷調查。

Hashimoto 的團隊讓 AI 去做了皮尤研究中心理念的民意調查問卷,並將 AI 做出來的結果和皮尤本身劃分的調研群體做對比,找出特定 AI 的「偏見」和什麼群體更相似。

研究發現,OpenAI 語言模型(非最新版)的「偏見」並不符合大部分美國群體的觀念,而是更接近大學生群體。

研究推測,可能因為這個群體的人最有可能負責類似語言模型的調整,所以語言模型也更能反映出這個群體的觀念。

哥倫比亞大學教授 Lydia Chilton 認為,當人們能夠看清 AI 背後的「偏見」立場是什麼,我們不僅可以避免受到「隱性說服」的影響,也能更好地利用這些工具。

譬如,銷售部分可以專門打造主攻銷售的 AI 助手,立場就是要完成銷售;客服部門也可以打造自己的服務型 AI 助手,目標就是要讓客人開心。

而且,人們也可以會主動用特定 AI 來把自己推向特定表達方式(或者是他們心目中理想的表達方式):

我覺得要興奮起來,用快樂的語氣說話好累人。

一般來說,咖啡因對這有點幫助,而現在 ChatGPT 也能幫上忙了。

 
宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新