https://big5.sputniknews.cn/20220627/1042157423.html
中國科學家建立可與人腦突觸數量相較的AI模型——“八卦爐”
中國科學家建立可與人腦突觸數量相較的AI模型——“八卦爐”
俄羅斯衛星通訊社
中國科學家基於最新的一台配備雙威處理器的超級計算機,建立了“腦級人工智能模型”——八卦爐(BAGUALU)。其具有174萬億個參數,可與人腦中的突觸數量相媲美,將在從自動駕駛汽車到科學研究的各種場景中應用。 2022年6月27日, 俄羅斯衛星通訊社
2022-06-27T15:12+0800
2022-06-27T15:12+0800
2022-06-27T15:12+0800
中國
ai芯片
人工智能
https://cdn.sputniknews.cn/img/102827/35/1028273582_0:58:1921:1138_1920x0_80_0_0_155e1bb7ac94acface3d0d827205a17f.jpg.webp
AI大模型(Foundation Models):是指經過大規模數據訓練且在經微調後即可適應廣泛下游任務的模型。隨著參數規模不斷擴大,AI大模型在語言、視覺、推理、人機交互等領域湧現出新能力。由於各類AI大模型可有效應用於多種任務,各類AI大模型同質化特徵愈發明顯。根據最新發佈的《2022年全球人工智能產業研究報告》,伴隨2017年Transformer模型的提出,深度學習模型參數數量突破1億個。此後,模型參數數量迅速增長,其中BAGUALU模型於2021年7月發佈,參數規模已達到174萬億個。報告稱,模型參數規模的增大,有助於進一步提高模型的運算精度。AI大模型的應用向多個應用場景提供預訓練方案,其使用的自監督學習方法也可減少標注數據的使用,降低訓練研發成本。具體而言,AI大模型在醫療和生物醫藥、法律和教育等領域擁有廣闊應用前景。清華大學、阿里達摩院等機構的研究人員提出的“八卦爐”(BAGUALU),是第一個針對在超算,也就是新一代“神威”上,訓練參數量達到“百萬億級”模型的工作。“八卦爐”通過結合特定硬件的節點內優化和混合併行策略,在前所未有的大型模型上實現了體面的性能和可擴展性。“八卦爐”可以訓練14.5萬億個參數的模型,使用混合精度的性能超9過1 EFLOPS(每秒浮點運算次數),並且有能力訓練174萬億個參數的模型。顯然,這已經相當於人腦中突觸的數量了。
https://big5.sputniknews.cn/20200609/1031602645.html
https://big5.sputniknews.cn/20210621/1033930407.html
俄羅斯衛星通訊社
feedback.cn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2022
俄羅斯衛星通訊社
feedback.cn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
News
cn_CN
俄羅斯衛星通訊社
feedback.cn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.sputniknews.cn/img/102827/35/1028273582_94:0:1801:1280_1920x0_80_0_0_f818b8e6fef37da513b2ebe2c8812dc4.jpg.webp俄羅斯衛星通訊社
feedback.cn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
中國, ai芯片, 人工智能
中國科學家建立可與人腦突觸數量相較的AI模型——“八卦爐”
中國科學家基於最新的一台配備雙威處理器的超級計算機,建立了“腦級人工智能模型”——八卦爐(BAGUALU)。其具有174萬億個參數,可與人腦中的突觸數量相媲美,將在從自動駕駛汽車到科學研究的各種場景中應用。
AI大模型(Foundation Models):是指經過大規模數據訓練且在經微調後即可適應廣泛下游任務的模型。隨著參數規模不斷擴大,AI大模型在語言、視覺、推理、人機交互等領域湧現出新能力。由於各類AI大模型可有效應用於多種任務,各類AI大模型同質化特徵愈發明顯。
根據最新發佈的《2022年全球人工智能產業研究報告》,伴隨2017年Transformer模型的提出,深度學習模型參數數量突破1億個。此後,模型參數數量迅速增長,其中BAGUALU模型於2021年7月發佈,參數規模已達到174萬億個。
報告稱,模型參數規模的增大,有助於進一步提高模型的運算精度。AI大模型的應用向多個應用場景提供預訓練方案,其使用的自監督學習方法也可減少標注數據的使用,降低訓練研發成本。具體而言,
AI大模型在醫療和生物醫藥、法律和教育等領域擁有廣闊應用前景。
清華大學、阿里達摩院等機構的研究人員提出的“八卦爐”(BAGUALU),是第一個針對在超算,也就是新一代
“神威”上,訓練參數量達到“百萬億級”模型的工作。“八卦爐”通過結合特定硬件的節點內優化和混合併行策略,在前所未有的大型模型上實現了體面的性能和可擴展性。
“八卦爐”可以訓練14.5萬億個參數的模型,使用混合精度的性能超9過1 EFLOPS(每秒浮點運算次數),並且有能力訓練174萬億個參數的模型。顯然,這已經相當於人腦中突觸的數量了。