精品国产18久久久久久,一个人在线观看的www,亚洲一区二区久久久,成人国内精品久久久久影院vr,最近免费中文字幕大全高清大全1

九章云極DataCanvas雙論文入選國際頂會ACL 2025,科研硬實力再獲認證

2025-06-04 09:32:44AI云資訊1452

近日,第63屆國際計算語言學年會(Annual Meeting of the Association for Computational Linguistics,簡稱 ACL)公布ACL 2025的論文收錄結果。憑借前沿技術創(chuàng)新,九章云極DataCanvas公司的兩篇論文成功入選。其中,九章云極科研團隊的研究成果《Can Language Models Serve as Analogy Annotators?》被ACL錄用為Findings論文。人民大學AI Box研究團隊與九章云極聯(lián)合完成的論文《YuLan-Mini: Pushing the Limits of Open Data-efficient Language Model》被ACL 2025主會場錄用。這兩項成果分別就高效大模型訓練新范式、語言模型類比推理難題等關鍵領域,形成從訓練到推理的全鏈路創(chuàng)新,為行業(yè)研究提供新的思路和技術路徑。

第63屆ACL年會將于2025年7月27日至8月1日于奧地利維也納舉行

兩項成果閃耀ACL2025,彰顯科研硬實力

ACL是自然語言處理(NLP)領域的頂級學術會議之一,根據(jù)中國計算機學會(CCF)的評級,ACL被列為A類會議(最高等級)。ACL論文通常代表著該領域的前沿研究成果,其論文需通過“雙盲評審”與領域主席的多輪篩選,最終接收率長年低于25%。這種“優(yōu)中選優(yōu)”的評選機制,確保了收錄論文的創(chuàng)新性與技術突破性,使其成為衡量學術成果創(chuàng)新性與實用性的黃金標尺。據(jù)統(tǒng)計,今年ACL論文總投稿量高達8000多篇,是去年的近2倍,被稱為ACL論文收錄競爭最為激烈的一年。此次,九章云極DataCanvas兩篇論文雙雙入選ACL 2025,有力印證了九章云極DataCanvas公司在AI研究領域的全球領先性與持續(xù)創(chuàng)新能力。

近年來,ACL會議逐漸從“純學術會議”轉向“學術與產業(yè)結合”的平臺。本次九章云極DataCanvas公司入選的兩篇論文亦體現(xiàn)出產學研用深度融合的特色。其中被Findings收錄的類比推理研究論文整合了九章云極在工業(yè)級大模型訓練中積累的實戰(zhàn)經驗,而被ACL 2025主會場錄用的論文YuLan-Mini由九章云極與高校聯(lián)合創(chuàng)新攻關。作為人工智能基礎設施領軍企業(yè),九章云極正通過產學研用協(xié)同創(chuàng)新的模式,構建產業(yè)融合新生態(tài),攜手合作伙伴共同推動AI技術賦能千行百業(yè)。

技術攻關突破類比推理機器認知難題

針對大語言模型(LLMs)在類比推理任務中的技術瓶頸,九章云極DataCanvas進行了積極探索,并提出創(chuàng)新解決方案。該研究成果《Can Language Models Serve as AnalogyAnnotators?》被ACL 2025錄用為Findings論文,為突破機器類比推理能力提供了重要理論支持。

本次研究中,九章云極DataCanvas通過實證揭示:即便在思維鏈(CoT)技術的輔助下,當前最先進的語言模型仍難以有效解決類比推理任務?;诖?,九章云極DataCanvas創(chuàng)新性地融合認知心理學領域的結構映射理論(SMT),提出多階段漸進式類比推理框架A3E(Automated Analogy Annotation Expert)。實驗證實,該框架首次使大語言模型的類比標注準確率達到人類專家水平,為突破類比推理的機器認知瓶頸提供了可擴展的技術路徑。

前沿突破推動開源大語言模型發(fā)展

本次被ACL 2025主會場收錄的論文《YuLan-Mini: Pushing the Limits of Open Data-efficient Language Model》,針對大型語言模型(LLMs)預訓練過程中存在的關鍵瓶頸與設計難點進行了探索,并預訓練出一個完全開源的高性能基座模型YuLan-Mini。該模型作為 2.4B 小參數(shù)量模型,僅在 1.08T Tokens 上預訓練,展現(xiàn)出優(yōu)異的訓練高效性,實現(xiàn)比肩商用小模型的性能表現(xiàn),為資源受限場景下的模型部署提供了全新范式。

YuLan-Mini模型在訓練穩(wěn)定性、數(shù)據(jù)流程優(yōu)化、全棧開源實踐三大方面實現(xiàn)創(chuàng)新突破,不僅為開源社區(qū)進行大模型研究提供了可行的技術路徑,更為推動開源大語言模型的發(fā)展做出了重要貢獻。在訓練穩(wěn)定性方面,九章云極DataCanvas聯(lián)合研究團隊深入研究了Transformer架構的訓練穩(wěn)定性問題,識別出隱藏狀態(tài)爆炸和RMSNorm表示坍塌等關鍵因素,提出了創(chuàng)新性的解決方案,有效緩解了訓練不穩(wěn)定性。在數(shù)據(jù)優(yōu)化方面,團隊構建了一套精細的數(shù)據(jù)處理流程,創(chuàng)新性融合了數(shù)據(jù)合成、數(shù)據(jù)課程與數(shù)據(jù)篩選等機制。實驗結果表明,YuLan-Mini 在同參數(shù)規(guī)模模型中表現(xiàn)優(yōu)異,性能可媲美使用更多數(shù)據(jù)訓練的業(yè)界領先模型。

此次論文雙雙入選ACL 2025,不僅展現(xiàn)了九章云極DataCanvas在AI研究領域的前沿實力,更驗證了公司產學研用協(xié)同模式的有效性,為全球自然語言處理領域的發(fā)展貢獻了中國方案。在通用人工智能發(fā)展的關鍵窗口期,九章云極DataCanvas將繼續(xù)聚焦人工智能領域的核心技術問題,持續(xù)進行攻關和創(chuàng)新突破,以AI技術創(chuàng)新為多個行業(yè)的數(shù)智化轉型注入創(chuàng)新動能。

相關文章

人工智能企業(yè)

更多>>

人工智能硬件

更多>>

人工智能產業(yè)

更多>>

人工智能技術

更多>>
AI云資訊(愛云資訊)立足人工智能科技,打造有深度、有前瞻、有影響力的泛科技媒體平臺。
合作QQ:1211461360微信號:icloudnews