新加坡推出創新AI測試工具箱Project Moonshot,應對大型語言模型的安全挑戰

在人工智能領域,新加坡近日啟動了一項創新計畫—AI Verify (Project Moonshot),由通信與信息部部長約瑟芬·張(Josephine Teo)女士宣布。這一測試工具箱針對部署大型語言模型(LLMs)所面臨的種種安全與保護挑戰提供了前沿解決方案,這些挑戰是推動以AI為驅動的應用和解決方案發展不可或缺的部分。Project Moonshot以其開源特質脫穎而出,整合了紅隊測試、基準測試和基線測試於一個用戶友好的平台中,不僅突顯了新加坡利用全球開源社群來緩解與AI相關的風險的決心,同時也為AI領域確立了普遍測試標準邁出了重要步伐。
Project Moonshot的核心目的是揭開LLMs複雜運作的神秘面紗,使得即使非技術背景的人士也能輕鬆評估一個模型或應用的質量和安全性。該計畫是通過與DataRobot、IBM、Singtel和Temasek等行業巨頭的緊密合作而成型的,確保了這個工具箱實用且符合行業迫切需求。
與國際協調統一AI測試方法
從更廣闊的視角來看,Project Moonshot與國際上協同調和AI測試協定的努力保持一致。透過與領先的AI測試機構AI Verify Foundation (AIVF)和MLCommons的合作,通過一份意向備忘錄(MOI),承諾創建統一的安全基準套件,這一夥伴關係對於將多種測試方法整合成一個連貫且標準化的框架至關重要,從而促進全球AI模型的無縫評估。
AIVF正值其成立一周年之際,其在此倡議中發揮著核心作用。隨著會員數現已超過120,包括新的主要成員亞馬遜網路服務(AWS)和戴爾,AIVF將其範疇從單純的AI測試工具開發拓展到創造提升信任感的AI安全產品,包括制定適用於生成式AI的模型AI治理框架,使AI Verify符合國際標準,並與新加坡金融管理局的Veritas工具包整合。
通過Project Moonshot著手培育安全的AI生態系統,結合AIVF在標準和安全方面的努力,新加坡向負責任使用和發展AI技術邁出了重要一步。在全球爭相利用AI潛力的同時,新加坡的有條不紊和包容性做法為其他國家提供了可供效仿的途徑,確保AI的發展不會超越必要的倫理考量和安全協定。
新加坡推出的Project Moonshot是一個創新的AI測試工具箱,旨在應對大型語言模型的重大安全挑戰,並致力於建立全球AI測試的共通標準。