Google DeepMind AI 模型勝過「歐洲黃金標準」,能更準確預測天氣 - INSIDE
DeepMind

Google DeepMind AI 模型勝過「歐洲黃金標準」,能更準確預測天氣

GraphCast 是使用一種稱為圖像化神經網路(graph neural network)的機器學習架構,自過去 40 多年 ECMWF 的資料學習天氣資訊,可在一台 Google TPU v4 雲端電腦上於 1 分鐘內產生全球各地的地點未來 10 天的天氣預測,作為對比,使用超級電腦的傳統預測的方法則需要數小時。

人工智慧(AI)又在新的領域擊敗了人類!這次是天氣預報。Google DeepMind 研究人員近日在論文中指出,其 GraphCast AI 模型是天氣預報的一個「轉折點」。

有多項評估指出,GraphCast 比在歐洲中期天氣預報中心(European Centre for Medium-range Weather Forecasts,ECMWF)內運行、世界領先的天氣預報系統在未來 10 天內的預測上更加精準,ECMWF 又被視為「黃金標準」。

結果顯示,GraphCast 在 1380 個指標中有 90% 都優於 ECMWF,包括預測不同大氣層的溫度、壓力、風速、風向以及溼度等。GraphCast 的準確度比歐洲模型高出約 10%。此外 GraphCast 還能預測熱帶氣旋、大氣河流、熱浪和寒潮等極端事件。

ECMWF 機器學習協調員 Matthew Chantry 表示,這幾年氣象領域中的 AI 進步得比他們之前預期的還要快上許多,令人印象深刻。

ECMWF 是一家總部位於英國雷丁的政府機構,一直以來都在使用包括 DeepMind、NVIDIA 以及華為的 AI 模型以及自家的整合預測系統來進行即時預測。Chantry 認同 DeepMind 的說法,他指出 GraphCast 的確是最準確的系統,比華為的盤古氣象、NVIDIA 的 FourCastNet 都更加準確。

GraphCast 是使用一種稱為圖像化神經網路(graph neural network)的機器學習架構,自過去 40 多年 ECMWF 的資料學習天氣資訊,可在一台 Google TPU v4 雲端電腦上於 1 分鐘內產生全球各地的地點未來 10 天的天氣預測,作為對比,使用超級電腦的傳統預測的方法則需要數小時。

Chantry 指出,GraphCast 在經過訓練之後的運作成本非常低,在能源消耗部分,甚至可以便宜 1000 倍,他形容,「這是奇蹟般的進步。」

在實際應用上,Chantry 也成功預測 9 月北大西洋的颶風 Lee,該 AI 模型在颶風登陸的 9 天前就成功且正確地做出預測,而一般傳統的方法最多僅能預測 6 天,等於多給人們 3 天的時間為颶風的到來做好準備。

訓練資料較少,AI 模型能預測極端天氣狀況嗎?

值得注意的是,英國氣象局也在 10 月宣布與英國 AI 研究中心艾倫圖靈研究所(Alan Turing Institute)合作,開發自己的天氣預報圖像化神經網路,並將其納入現有的超級電腦中。

英國氣象局科學主任 Simon Vosper 認為,這種 AI 系統只接受過先前天氣條件的訓練,那麼這些系統是否能應對新的極端天氣狀況,就值得接受公平的質疑。因此英國氣象局將把 AI 與傳統電腦模型相互結合,發揮最佳效果,「我們相信這種技術的結合將在這個急遽變化的時代提供最可靠、最詳細的天氣預報。」

不過 Google DeepMind 研究總監、該研究的合著者之一 Peter Battaglia 就指出,傳統的觀點的確會認為在稀有、不尋常的事物上使用 AI 的效果可能不佳,但 GraphCast 確實做得很不錯。

從數據上來看,GraphCast 在 2 到 4 天的預報時間內將氣旋預報追蹤誤差減少了大約 10 到 15 英里,將與大氣河流相關的水氣預報提高了10% 到 25%,並在 5 到 10 天內的預報期提供了更精確的極端高溫和低溫預報。

但 GraphCast 的確也非十項全能。在預測颶風突然爆發性增強這一方面,就不比傳統模型來得好。另外在雷暴、山洪等較小規模或者可在短時間產生巨大降水量的天氣系統方面也不太管用。

Chantry 指出,ECMWF 下一步就是建立自己的 AI 模型,並考慮將其系統相互結合。

過去 2 年包括 Google、微軟(Micorsoft)、NVIDIA 和華為都各自推出了自家的 AI 天氣模型預測系統,並且聲稱其表現與歐洲模型一樣良好。

不過這樣的 AI 預測系統也有一些問題需要被解決,例如其預測的方式更不透明(又被稱為黑盒子),亦缺乏工具來確定 AI 為何會做出這樣的預測,這對氣象學家來說將是個待解決的挑戰。

核稿編輯:Chris

快加入 INSIDE Google News 按下追蹤,給你最新、最 IN 的科技新聞!

延伸閱讀:

 

 

 

 

 

 

 

最新發展:

AI 賽局 AWS 保持優勢的秘密!Anthropic 被亞馬遜投資 40 億美金後 Claude 3 模型對上雲企業有何效益?

在全球擁有數十萬用戶的雲端服務領導業者 AWS 推出之生成式 AI 平台「Amazon Bedrock」推出滿一周年之際,耳熟能詳的 AI 模型如 Stable Diffusion 、 Claude 、 Mistral 、 Llama 陸續登上 Bedrock 。另一方面, AWS 近期完成對 Anthropic 的 40 億美元投資案,這些佈局背後用意,如何讓 AWS 在長期的 AI 軍備競賽當中,保持領先地位?

Photo Credit: TNL Brand Studio

打造三層 AI 蛋糕,中層 Amazon Bedrock 累積超過一萬家客戶

關於這幾年 AWS 在 AI 有哪些具體的投入? Mark Relph, Director of Generative AI Go-To-Market, Amazon Bedrock 用了一個比喻,他說:「可以想像我們正在打造一個三層的蛋糕,每一層各有不同目的及功能項目。」

Mark 逐一解釋, 最底層的基礎設施,也就是運算、網絡、架構層,舉例來説, AWS 積極發展兩款用來訓練生成式 AI 的訂製晶片,分別是 AWS Trainium 及 AWS Inferentia  ,幫助更多客戶獲得具成本亦得運算能力。另外一個是 AWS 推出全託管的機器學習( ML )服務 Amazon SageMaker ,它讓 AI 開發人員和數據科學家的得以快速建構大型語言模型(LLMs)和其他基礎模型(FMs)。

中間層則是模型層, AWS 透過 Amazon Bedrock ,讓用戶可以透過單一 API 建置生成式 AI 應用程式所需的各種廣泛功能,搭配安全、隱私與負責任的 AI ,幫助企業使用熟悉的 AWS 服務,將生成式 AI 功能安全整合並部署到應用程式之中。蛋糕的最上一層則是應用層,針對各種應用程式內建 AI 功能,一方面幫助開發人員生成程式處理的工具,另一方面則針對商業應用,受惠企業以更有效率打造 AI 助手。

其中, Amazon Bedrock 之所以受到各界關注, Mark 解釋,「因為這是一項屬於無伺服器的全託管服務,開發者不用管理管理任何 IT 基礎設備,可以直接透過 API 嘗試使用 Amazon Bedrock 上面的生成式 AI 模型,接著把模型安全整合到對應的應用程式當中。」

目前累積超過一萬家活躍客戶使用 Amazon Bedrock ,這個雲端 AI 模型平台之所以有這麼高的黏著度,很重要的一個因素就是「集結」多個重要 AI 模型。攤開名單,包含 Stable Diffusion 、 Mistral 、 Llama 、 AWS 自家的 Amazon Titan ,以及 AI 新創公司 Anthropic 推出的  Claude 3 系列模型(包含 Sonnet 、 Haiku 、 Opus ),這些模型提供給客戶多種選擇,讓客戶找到最適合自己的基礎模型,應用場景包含但不限於常見一些
用來生成文本、圖像、音訊或是執行對話、摘要總結、文字處理作業等的應用。

Photo Credit: TNL Brand Studio
▲Mark Relph(上)、FOx(下)視訊訪談畫面

AWS 投資 Anthropic 聯手力推 Claude 3 ,讓 AI 模型「混搭」效率大

今年 3 月,亞馬遜宣布完成對 Anthropic 的 40 億美元投資,談到雙方合作契機, Mark 解釋, AWS 與 Anthropic 有共同的目標,就是提供客戶一個快速、安全及負責任地探索生成式 AI 。拆解雙方的進一步合作細節,目前可知 Anthropic 會採用 AWS 的 Trainium 及 Inferentia 晶片,建構、訓練及部署其 AI 模型,而 AWS 也會在 Amazon Bedrock 開放、存取 Anthropic 最先進的 AI 模型權限。

而 Anthropic 打造的 Claude 3 Opus ,除了登上 Amazon Bedrock 供更多人使用之外, Claude 3 Opus 之所以備受矚目,另一原因是 Claude 3 Opus 在今年 3 月在專門盲測大型語言模型( LLM )能力的 LMSYS Chatbot Arena 排行榜上(資料來源:https://www.ithome.com.tw/news/162023),成功「篡位」拿下冠軍寶座。

根據 Anthropic 測試,處理複雜的開放式問題, Claude 3 Opus 的準確率比 Claude 2.1 提高約兩倍,而且跟其他模型進行特殊知識表現比較,像是研究生水準專家推理、基礎數學等,理解力和熟練度都更為優異。除了有 Claude 3 Opus 的加持, Amazon Bedrock 持續受到歡迎的因素, Mark 給了另一個角度的詮釋。

「我們發現越來越多企業在不同的 AI 模型之間切換,例如用一個模型做文字檔案摘要,接著需要用另一個模型做問題推理及解決,所以他們傾向把模型『串連』在一起,來解決複雜的業務問題。 Amazon Bedrock 正可滿足這樣情境的基礎建設環境,秉持以客戶為中心並從解決問題的角度出發,也是為什麼 Amazon Bedrock 引起客戶共鳴的關鍵,」 Mark 補充道。

除了建置好用的雲端平台環境,從 2023 年開始, AWS 還成立「生成式 AI  創新中心」投入一億美元預算,用來聯結 AWS 平台上的 AI 和機器學習專家與全球客戶,協助構想、設計和推出新的生成式 AI 產品、服務和流程。 AWS 與 Anthropic 內部的合作,也是透過生成式 AI  創新中心的資源,讓更多客戶受惠 Claude 3 系列模型,將 AI 真正普及到各行各業。

把通才 AI 變成公司的專才秘書,負責任 AI 確保企業數據足夠安全

不論是潛力新創公司、領先的成功企業、或是政府組織,前仆後繼成為 Amazon Bedrock 的用戶, AWS 也看到不同產業的生成式 AI 使用情境實際落地。 Mark 提到幾個案例,例如客服部門有 Claude 3 加持,讓人與人的對話過程即時掌握顧客需求,客服同仁可以從 AI 工具獲得文字提示,當下就能完整歸納出給客戶的解答,不僅可減少通話時間又提升對話價值。

除此之外,生成式 AI 還可以在製造業(例如:分析維修手冊提供下次機台需要進修時間)、醫療業(例如:提供該位顧客返家後用藥須注意事項)、金融業(例如:針對該客戶的貸款狀況、提交的財務文件快速指出下一階段業務內容)等領域有所貢獻。

但從上述的情境當中可發現,這類回答往往需要更專業、更適合的答案,而且不能輕易「糊弄」提問者。對此, Cathy Lai, Lead, Service Specialist Team, AWS Taiwan 就提到, Amazon Bedrock 內建負責任 AI(responsible AI) 及 RAG(Retrieval-Augmented Generation) 檢索增強生成功能,可以把大型語言模型從「通才」訓練成「專才」。

不過要把 AI 訓練成專才,當然需要企業內部的知識資料庫內容,包含訓練手冊、技術文件、關鍵數據等資料,藉此讓  RAG 模型內的資訊擷取元件,從新資料來源提取資訊。從而提供給 LLM 使用新的知識及其訓練資料來建立更好的回應,將資料轉換為數值表示並將其儲存在向量資料庫中。此程序建立一個生成式 AI 模型可以理解的知識庫,並使用數學向量計算和表示來計算及確立相關性。因此大語言模型就能更具專業內容和具邏輯性的回答。但企業內部重要資料攸關營業機密,要放到 AI 平台進行模型訓練當然更關注安全性。

對此, Mark 以嚴肅口吻回答,「隱私和安全性。始終是 AWS 最關注也最在意的項目。」目前 Amazon Bedrock 導入防護機制,可設定閾值的內容篩選條件,以篩選涉及仇恨、辱罵、犯罪活動以及提示攻擊等有害內容。同時 Amazon Bedrock 也提供 Guardrails 功能有效實施客製化的安全措施,可以限制大語言模型不提供可能造成財物損失的投資建議等訊息。另外防護機制也會偵測使用者輸入內容和  FM 回應中的個人身分識別資訊(PII)等敏感內容,以保護隱私權。「最後要強調,每家企業的資料不會傳回給 AI 模型供應商,同時 AWS 也絕對不會隨意拿取客戶的資料。」 Cathy 補充道。

展望未來, AWS 會努力尋找用更簡單的方式,給非資工背景的人享受到 AI 效益,甚至自主創建專屬的 AI 應用。 Mark 提到他們有一個「PartyRock」網站(https://partyrock.aws/),底層就是由 Amazon Bedrock 驅動,讓一般大眾在網站根據自身需求(例如希望幫自己的 YouTube 頻道寫腳本)來客製化自己的 AI 應用程式。「可以肯定的是, AWS 將確保提供最好的 AI 工具給我們的客戶,這是永遠不變的承諾!」 Mark 表示。 

爲了提供大衆體驗 Claude 3 及其他部分 Amazon Bedrock 平台大語言模型(LLM)的機會,現在就邀請大家限時免費體驗,每一個在本 AWS 網頁開設的測試帳戶現在不需要綁定信用卡、且享有 24 小時內完全免費,讓你輕鬆一鍵創造實驗環境!

點此即刻享受 AWS 的精彩體驗

點此免費體驗AWS的生成式AI 來建置你的APP