Photo Credit: REUTERS/Robert Galbraith

耶魯大學在 Twitter 實驗中證實:「憤怒與仇恨」言論將擴散更多社群負面情緒

仇恨與憤怒有時雖可間接幫助社會成長,但多數情形造就的是更多的爭議與紛擾,而社群媒體應該擔任把關仇恨言論散播的角色。

舉凡現今知名的社群軟體如臉書、Instagram、Twitter 都有幾項大家耳熟的互動功能,例如點讚、分享及留言等等,但您是否曾發現,最容易在社群引起討論與互動的內容,多數以「憤怒與仇恨」情緒為主?像台灣的兩岸政治、同性議題都是百年不衰的網路紅榜話題。

不過這些憤怒與仇恨情緒的擴散力有多強?美國耶魯大學研究員以 AI 蒐集約 7,331 名使用者共計 1,270 萬則推文觀察發現,這些憤怒與仇恨的貼文容易吸引許多關注,並引起其他的使用者互動與轉發,進而延伸其他新的爭議話題。

耶魯大學研究員以 Twitter 作為尋找「憤怒與仇恨」散播的管道

耶魯大學的 2 名研究員 Brady and Crockett 為進一步找出憤怒與仇恨散播的原因,便以 AI 建立 Twitter 憤怒與仇恨相關內容的追蹤工具,並針對 7,331 名使用者共計 1,270 萬推文分析後發現,隨著時間的推移,新轉貼及新發佈的貼文內容來看,很多都是從最一開始的仇恨內容延伸出來的。

因為仇恨與對立觀點會吸引其他人進入討論,在吸引關注與流量的情況下,會有更多人想要吸引更多的關注,進而讓這些爭議性的話題延伸,所以這 2 名研究人員得出的結論是「關注度」及「仇恨」是等比成長的,這份研究報告在 8/13 時刊登在 Science Advances 科學期刊中。

Facebook 和 Twitter 等社群平台對此項研究表示,它們只是提供了一個中立的社群平台給大家互動,不認同這項研究推論說它們是放大憤怒情緒的管道。然而這 2 名研究人員表示,Facebook 和 Twitter 的說法說服力似乎不足,反而精準衡量社會道德、憤怒等複雜個人情緒,是一項新技術必須面臨的挑戰。

另一項有趣的研究指出,屬於政治溫和派系的使用者和粉絲,對憤怒情緒、社會話題風向更敏感,從而逐漸從溫和派慢慢轉變成政治激進的群體,而這些情緒的轉變及演化,社群媒體無疑是加劇了憤怒了憤怒的情緒傳播,因此不認同 Facebook 和 Twitter 的看法。

核稿編輯:Chris

延伸閱讀:


最新發展:

Photo Credit: Shutterstock / 達志影像
Photo Credit: Shutterstock / 達志影像

讓每個員工都成為 AI 詠唱師!APMIC 大型語言模型與 HPE 伺服器助 AI 加速落地

APMIC 推出的「CaiGunn 開講」在地化大型語言模型,結合 HPE ProLiant DL320 Gen11 和 DL380a Gen11 伺服器,提供高效生成式 AI 應用,助企業加速 AI 專案部署。 透過強大的硬體支持,該模型在智能客服和知識管理上顯著提升效率,解決應答率低和內部文件管理問題,強化企業競爭力。

生成式 AI 持續帶動產業革命,無論是內容生成、智慧客服、程式轉寫等領域均展現出絕佳的回應能力,成企業轉型及強化競爭力的關鍵武器,企業無不將導入生成式 AI 視為最重要的下一步布局。然而,在人才不足、預算有限的狀況下,企業若單憑一己之力推動生成式 AI 相關專案,恐將陷入推動時程長、成效難以預估等困境,故導入市面上的成熟 AI 模型被認為是最佳解方。

不過,生成式 AI 市場百家爭鳴,如雨後春筍般出世的 AI 公司及解決方案令人目不暇給,彷彿「亂紀元」般讓企業無所適從。而 APMIC(亞太智能機器)指出,企業要導入生成式 AI 模型強化競爭力時,可從兩大關鍵面向下手,如讓內部更多人能夠參與並投入 AI 專案的開發;以及所選 AI 解決方案是否涵蓋完善的系統整合,減少需要做出更多選擇和評估的時間。

AI 讓溝通不可限量  APMIC 助企業強化智能客服及內部知識管理

「CaiGunn 開講」是由 APMIC 打造的在地化大型語言模型,企業人員只要將現有的文章、網站或是文件資料上傳,不須撰寫任何程式,就能打造出最聰明且接地氣的聊天機器人。此大語言模型更支援各種資料格式的訓練,包含文字檔案、表格和網站爬蟲等,並且能夠根據特定任務進行微調,以提高在特定領域的表現。

▲「CaiGunn 開講」介面示意圖
▲「CaiGunn 開講」介面示意圖

在節省人力、加速專案時程等前提下, APMIC 獨家推出資料整理自動化機制,藉由系統之間 API 串接、資料去識別化、資料自動貼標與轉換等步驟,可快速利用資料進行訓練與調校的速度。「CaiGunn 開講」內建核心引擎判斷意圖機制,可節省客服系統的 20% 回覆時間,加上產品內建的提示範例達 100 多組,助每個員工都一鍵套用、輕鬆能成為善用 AI 工具的工程師「詠唱師」。

軟硬整合是關鍵 HPE ProLiant Gen11 伺服器 專為 AI 應用而生

APMIC「CaiGunn 開講」整合專為 AI 應用所設計的 HPE ProLiant DL320 Gen11 / DL380a Gen11 伺服器,藉由內建加速器的 Intel Xeon Scalable 系列處理器與 NVIDIA GPU 晶片之間搭配,能協助企業將 AI 模型於公司內部快速落地,可實現絕佳的 AI 效能,以及最優異的應用程式可攜性。 Intel Xeon Scalable 系列處理器內建加速器,可實現更優異的核心效能和無與倫比的 AI 效能,以及最優異的應用程式可攜性。

近年來, HPE 在 AI 領域也投入大量資源,推動多項創新和應用。其中, HPE ProLiant DL320 Gen11 / DL380a Gen11 伺服器即為是專應對生成式 AI 應用的需求而生,主打可以免去開發和部署生成式 AI 基礎架構的複雜性,助企業加速完成「對話式搜尋」、「業務流程自動化」和「內容創作」等生成式 AI 模型的部署。 HPE ProLiant DL320 Gen11 伺服器是專為邊緣 AI 應用設計,最多可安裝四張 NVIDIA L4 GPU 卡,同時內建 NVIDIA Metropolis 工具;而 HPE ProLiant DL380a Gen11 伺服器則是為生成式視覺 AI、自然語言 AI 模型等應用設計,最多可安裝四張 NVIDIA H100 GPU 卡,同時亦提供 NVIDIA AI Enterprise 軟體套件。

APMIC 認為,讓 AI 模型透過系統整合真正落地的方案是這個時代所需,將與 HPE 一起持續協助客戶更加便利且深入地使用 AI 。他們也深信,讓企業內部更多人能夠參與 AI 的世界,不需要任何程式編寫或數據處理知識也能輕鬆使用,更是企業迎戰 AI 時代的關鍵思維。

因應不同企業運用場景,目前 APMIC「CaiGunn 開講」大型語言模型有 Mini、Pro、Ultra 等三種 AI 模型供選擇 ,應用場景涵蓋「GenAI 智能客服」,協助大幅解決應答率過低、或者回覆的內容與事實不符的問題,有效降低風險並強化企業形象;以及「GenAI 知識管理」,透過上傳並整理四散各處且格式不一的公司文件,員工只要透過問答形式,即可獲得想要的資訊,解決內部工作效率問題。在 APMIC 技術團隊的全方位顧問服務協助下,結合 HPE ProLiant DL320 Gen11 /DL380a Gen11 伺服器 的強大 AI 算力,企業不光可縮短推動 AI 專案執行速度,也能降低整體成本支出,強化在市場上的競爭力。 

本文章內容由「APMIC & HPE & Intel」提供。