中國科學家建立可與人腦突觸數量相較的AI模型——“八卦爐”

CC0 / Pixabay / 中國科學家建立可與人腦突觸數量相較的AI模型——“八卦爐”
中國科學家建立可與人腦突觸數量相較的AI模型——“八卦爐” - 俄羅斯衛星通訊社, 1920, 27.06.2022
關注
中國科學家基於最新的一台配備雙威處理器的超級計算機,建立了“腦級人工智能模型”——八卦爐(BAGUALU)。其具有174萬億個參數,可與人腦中的突觸數量相媲美,將在從自動駕駛汽車到科學研究的各種場景中應用。
AI大模型(Foundation Models):是指經過大規模數據訓練且在經微調後即可適應廣泛下游任務的模型。隨著參數規模不斷擴大,AI大模型在語言、視覺、推理、人機交互等領域湧現出新能力。由於各類AI大模型可有效應用於多種任務,各類AI大模型同質化特徵愈發明顯。
根據最新發佈的《2022年全球人工智能產業研究報告》,伴隨2017年Transformer模型的提出,深度學習模型參數數量突破1億個。此後,模型參數數量迅速增長,其中BAGUALU模型於2021年7月發佈,參數規模已達到174萬億個。
阿里雲今年再招5000人 重點吸引AI、芯片等攻堅人才 - 俄羅斯衛星通訊社, 1920, 09.06.2020
阿里雲今年再招5000人 重點吸引AI、芯片等攻堅人才
報告稱,模型參數規模的增大,有助於進一步提高模型的運算精度。AI大模型的應用向多個應用場景提供預訓練方案,其使用的自監督學習方法也可減少標注數據的使用,降低訓練研發成本。具體而言,AI大模型在醫療和生物醫藥、法律和教育等領域擁有廣闊應用前景。
清華大學、阿里達摩院等機構的研究人員提出的“八卦爐”(BAGUALU),是第一個針對在超算,也就是新一代“神威”上,訓練參數量達到“百萬億級”模型的工作。“八卦爐”通過結合特定硬件的節點內優化和混合併行策略,在前所未有的大型模型上實現了體面的性能和可擴展性。
Искусственные технологии. Китай - 俄羅斯衛星通訊社, 1920, 21.06.2021
中國首個虛擬學生“華智冰”是下一代AI技術的嘗試
“八卦爐”可以訓練14.5萬億個參數的模型,使用混合精度的性能超9過1 EFLOPS(每秒浮點運算次數),並且有能力訓練174萬億個參數的模型。顯然,這已經相當於人腦中突觸的數量了。
新聞時間線
0