人算不如ChatGPT算?研究顯示:ChatGPT可靠新聞標題預測股價

Vanessa
分享
人算不如ChatGPT算?研究顯示:ChatGPT可靠新聞標題預測股價

去年 12 月由 OpenAI 所開發的人工智慧聊天機器人程式 — ChatGPT,上線後 5 天即達到百萬用戶註冊,推出後迅速掀起全球對於 AI 技術關注的浪潮。本篇將藉由佛羅里達大學教授 Alejandro Lopez-Lira 的實驗 — 使用 ChatGPT 解析金融新聞標題,並讓它判斷這些消息對股價是好還是壞,一窺未來大型語言模型(LLM)在預測金融、股票方面的無限可能。

ChatGPT 的爆紅

ChatGPT (英文:Chat Generative Pre-trained Transformer) 是由 OpenAI 開發的人工智慧聊天機器人程式,其基於 GPT-3.5 和 GPT-4 架構的大型語言模型 (LLM) 進行強化學習訓練。ChatGPT 能夠與人類使用自然語言進行互動,同時還能夠處理複雜的工作,在多個專業領域提供詳細且清晰的回答,甚至可以通過不同國家的律師、醫生等專業領域的考試。

ChatGPT 所生成的文字內容與真人寫作相似度極高,因此也引發了人們對於「AI 是否會取代人類?」的焦慮和討論。由於 ChatGPT 似乎能夠勝任曾被認為是AI難以取代的白領階級工作,因此也進一步擴大了這種焦慮和討論。

廣告 - 內文未完請往下捲動

用戶成長方面,也是歷史上最快取得百萬用戶數的程式 — 只用了兩個月。

chatGPT用戶數
ChatGPT 成為史上最快獲得百萬用戶的公司(圖源

ChatGPT 預測股價竟有超出預期的表現?

佛羅里達大學教授 Alejandro Lopez-Lira 在此項實驗中使用 ChatGPT 來解析金融新聞標題,並讓 ChatGPT 判斷這些消息對股價是好還是壞。在一篇近期發布的論文中指出,ChatGPT 預測下一個交易日回報方向的能力比隨機預測的能力好上許多。

這個實驗使用了最先進和核心的人工智慧技術:更強大的電腦和更優質的數據集。這樣的人工智慧模型可能會展現出「湧現能力(Emergent Ability)」,這是在建置模型時原本沒有預料到的。

註:湧現能力(英文:Emergent Ability)是出現在大型語言模型(LLM)的一種現象,指模型發展出一些從前未想像到的能力,例如:基礎的社會知識、推理等。GPT 4 的更新,使得這個現象備受關注,至於為什麼 AI 會湧現出這些能力?目前學界尚未有答案。

ChatGPT 的金融預測實驗如何運作?

在這個實驗中,Lopez-Lira 和他的合作夥伴 Yuehua Tang 從一家數據供應商那裡調閱了超過 50,000 則有關紐約證交所、納斯達克和小規模交易所上市公司的金融新聞標題。

此實驗由 2022 年 10 月開始,這同時也是 ChatGPT 的訓練數據截止日—意味著 ChatGPT 不曾在原有的訓練中見過這些資料。接著,他們將這些標題與以下提示 (英文:Prompt) 一起輸入到 ChatGPT 3.5 中:

「忘記所有以前的指示。假裝你是一位金融專家。你是一位有股票推薦經驗的金融專家。在第一行中回答『YES』表示好消息,『NO』表示壞消息,如果不確定則回答『UNKNOWN』。然後在下一行用一個簡短而簡潔的句子進行詳細解釋。」

ChatGPT 的優異表現

接著他們觀察了這些股票在隔天的收益狀況。

Lopez-Lira 發現當 ChatGPT 根據新聞標題進行預測時,在幾乎所有情況下的表現都比隨機預測來得好。具體來說,他發現 ChatGPT 在隨機預測隔日股票漲跌方向的成功率小於 1%;而在閱讀相關新聞標題後的成功率,則高於此數值。

ChatGPT 甚至擊敗了具有人類情感分數的商業數據集。論文中的一個例子顯示:有一個關於某公司和解、訴訟並支付罰款的標題,此情感是負面的,但 ChatGPT 的回答正確地推斷這實際上是好消息。

Lopez-Lira 表示,已有一些對沖基金聯繫他,想要了解他的研究。隨著各機構開始整合這項技術,ChatGPT 預測股票走勢的能力在未來幾個月可能會下降,這並不令人驚訝。

「隨著越來越多的人使用這些工具,市場將變得更加有效率,預見報酬的可預測性將下降,因此,我猜想如果我在未來五年內再次進行這項實驗,到第五年,預測回報的可預測性將為零。」Lopez-Lira 說道

ChatGPT 對於金融從業人員的衝擊?

假如 ChatGPT 的湧現能力能夠理解金融新聞標題,以及這些標題對股價可能產生的影響,這可能會導致金融行業的高薪工作面臨風險。高盛在 3 月 26 日的一份報告中估計,約有 35% 的金融工作面臨被人工智慧自動化取代的風險。

「ChatGPT 能夠理解人類資訊,這幾乎可以保證,如果市場反應不完全,就會有回報可預測性。」 Lopez-Lira 表示。

ChatGPT 離取代人類還有一段距離

不過,這個實驗的結果也顯示了,所謂的「大型語言模型(LLM)」在完成許多金融方面的任務,仍然還有一段距離。例如,這個實驗沒有包含目標價格,也沒有讓模型做任何數學運算。因為 ChatGPT 常為人詬病的是它會虛構數字與計算。

在其存在專屬的數據資料集的情況下,文本情感分析(Sentiment analysis )也已廣泛的被視為一種交易策略。

註:文本情感分析是指用自然語言處理、文本挖掘以及計算機語言學等方法來識別和提取原素材中的主觀訊息。

Lopez-Lira 表示,他對實驗結果感到驚訝,並補充說,這表示高階投資者尚未在他們的交易策略中使用像 ChatGPT 這樣的機器學習技術。

「從監管的角度來看,如果我們讓機器去閱讀新聞標題,那麼新聞標題的重要性將會變高。而值得關注的是,是否每個人都應該擁有使用像 GPT 這樣的機器的權限?其次,這肯定會對金融分析師的就業產生一些影響。問題來了,我想花錢請分析師嗎?還是我只要將文本訊息放入模型中就好?」Lopez-Lira 說道

ChatGPT 會為人類帶來更多自由與幸福嗎?

ChatGPT對人類社會的衝擊

上線不到半年的時間,ChatGPT 在各個領域都展示了驚人的能力,甚至出現「湧現能力」等人類尚無法理解的現象。此實驗結果也讓人期待 ChatGPT 未來將在金融領域發揮多大的影響力。儘管如此,它仍然有許多弱點:它會虛構數字與計算,甚至會產生不實訊息等,此項新科技無論好、壞,都將深深地影響我們所處的社會。

如 Lopez-Lira 教授所提及:「是否每個人都應該擁有使用像 GPT 這樣的機器的權限?」,像這樣的技術革新是否會讓現在能夠優先取得、使用此技術的人及機構,更容易地累積資產,進而擴大貧富差距?AI 技術的應用是否應該以人為本,以為人類提供更高品質的幸福生活為宗旨?其中衍生的關於:監管、道德、以及社會公正等問題,也許是我們更值得加強討論及關注的面向。

ChatGPT 擁有智慧嗎?

至於社群上的熱門話題 — ChatGPT 是否已具備智慧?

它是否只是一個會生成文字,但不具備「智慧」的機器?還是能夠運用工具,協助人類處理複雜問題,進而消彌社會問題、增進人類福祉的助手?

面對這樣的質疑,微軟研究員 Sebastien Bubeck 並沒有給出答案,而是希望我們能夠重新思考「什麼是智慧?」,並且留下空間供讀者自行定義。

Sebastien Bubeck 於《Sparks of AGI: early experiments with GPT-4》的演講中說道:

「身為社會、身為人類,我們應該從中得出什麽結論?我們必須超越關於『這是否是複製貼上或統計數據』這種層次的討論。我們必須把這種討論拋在腦後。火車已經離開了車站。如果我們一直被這種問題困住,我們將會錯過真正重要的問題。」