Meta 微軟 大型語言模型 AI

Meta 與微軟共推新大型語言模型 Llama 2

2023-07-27
最近在人工智慧(AI)領域,尤其在生成式AI的突破性發展引起大眾無限的想像。許多開發者早已預見AI的潛力將可幫助大家實現各種可能,開創經濟與社會機會的新時代,並提供個人、創作者與企業以全新的方式展現自己並創造連結。

!此為分頁標誌前台不顯示!

透過擴大合作夥伴關係,微軟與Meta目前支持開放式的創新態度,將增加對基礎AI技術的使用,進而造福全球企業。不只Meta與微軟相信普及化可促進AI模型的進步,在世界各地也有廣泛的支持者,包括早期運用Llama 2建構新產品並分享回饋的公司、將Llama 2納入客戶服務產品中的雲端服務供應商、致力於與Meta共同安全地及負責任地開展大型生成模型的研究機構,還有與Meta一樣預見未來效益的科技、學術與政策領域等人士。

聚焦於負責任地開發

開源將促進Llama 2的透明度與可獲取性。AI為社會帶來顯著的進步,但也伴隨著風險,因此Meta承諾將負責任地構建並提供大量資源協助使用Llama 2的開發者。

  • 紅隊演練(Red-Teaming Exercises):在內部與外部努力下,Meta 的微調模型已通過紅隊演練安全測試。團隊致力於生成對抗式指令(prompts)來進行模型微調。此外,Meta委託第三方對經過微調的模型進行外部對抗性測試,以類似方式識別性能上的不足。這些安全微調過程是不斷迭代的;Meta 將繼續透過微調與基準測試,投入於安全性的提升,並基於這些努力發布更新的微調模型。
  • 透明度示意圖:解釋對於模型的微調與評估方式,並確認其缺陷。在研究論文中,Meta的透明度示意圖揭露過去所經歷過的已知挑戰與問題,並提供曾採取的緩解措施,以及未來計畫探索的解決方式。
  • 負責任的使用指南:Meta 建立一套指南,與開發者分享負責任地開發與安全評估的最佳實踐方式。指南概述在業界與AI研究社群間,所討論出目前關於負責任生成式AI的最佳研究方式。
  • 可接受的使用政策:Meta制定了禁止某些案例的政策,以確保這些模型得以公平且負責任地被使用。

 


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!