1. <sub id="dtjvx"></sub>
        <style id="dtjvx"></style>
        1. <bdo id="dtjvx"><strong id="dtjvx"><cite id="dtjvx"></cite></strong></bdo>
            <rt id="dtjvx"></rt>
            麻豆色漫,无线亚洲成人,精品综合视频精品,制服丝袜人妻,中文AV电影网,H无码,亚洲欧洲制服,国产V片免费A片视频
            快速發(fā)布求購 登錄 注冊
            行業(yè)資訊行業(yè)財報市場標準研發(fā)新品會議盤點政策本站速遞

            沈陽自動化所機器視覺研究多篇論文獲AAAI2026錄用

            產(chǎn)業(yè)報道 2025年11月14日 13:22:15來源:中國科學(xué)院沈陽自動化研究所 22222
            摘要在多模態(tài)大模型視覺生成方面,研究團隊提出了一種專家表征對齊的多模態(tài)大模型訓(xùn)練框架ARRA,可有效促進大模型學(xué)習(xí)跨模態(tài)表征,實現(xiàn)多任務(wù)通用多模態(tài)生成。

              【儀表網(wǎng) 產(chǎn)業(yè)報道】近日,國際人工智能頂級會議AAAI 2026論文接收結(jié)果公布,中國科學(xué)院沈陽自動化研究所在機器視覺研究方面的多篇研究論文獲錄用。
             
              在多模態(tài)大模型視覺生成方面,研究團隊提出了一種專家表征對齊的多模態(tài)大模型訓(xùn)練框架ARRA,可有效促進大模型學(xué)習(xí)跨模態(tài)表征,實現(xiàn)多任務(wù)通用多模態(tài)生成。相關(guān)研究成果Unleashing the Potential of Large Language Models for Text-to-Image Generation through Autoregressive Representation Alignment被大會選為口頭匯報(Oral)論文,論文第一作者為博士生謝興,通訊作者為范慧杰研究員與屈靚瓊助理教授。
             
              在多模態(tài)大模型方面,研究團隊提出了創(chuàng)新的物體分詞框架ObjecTok,顯著提升了模型以物體為中心的感知與推理能力。相關(guān)成果論文為ObjecTok: Learning Holistic and Robust Object Tokens for MLLMs,第一作者為博士生王思翰,通訊作者為劉西瑤副研究員。
             
              在具身智能操作方面,研究團隊提出了一種仿人知識總結(jié)與繼承的終身學(xué)習(xí)框架,賦予智能操作機器人持續(xù)演進、不斷適應(yīng)新技能的終身學(xué)習(xí)能力。相關(guān)研究成果論文為Lifelong Language-Conditioned Robotic Manipulation Learning,第一作者為博士生王旭東與沈陽自動化所實習(xí)生韓澤斌,通訊作者為韓志研究員。
             
              在具身智能導(dǎo)航方面,研究團隊提出了一種基于分層規(guī)劃策略的導(dǎo)航智能體,可提升智能機器人在復(fù)雜大場景中具身導(dǎo)航的魯棒性。相關(guān)研究成果論文為SeqWalker: Sequential-Horizon Vision-and-Language Navigation with Hierarchical Planning,第一作者為沈陽自動化所實習(xí)生、中北大學(xué)本科生韓澤斌,通訊作者為博士生王旭東。
             
              在視頻定制化生成方面,研究團隊提出了一種連續(xù)定制化視頻擴散模型,可在連續(xù)動態(tài)空間中實現(xiàn)任意概念的個性化視頻生成。相關(guān)研究成果論文為Bring Your Dreams to Life: Continual Text-to-Video Customization,第一作者為沈陽自動化所博士畢業(yè)生、穆罕默德·本·扎耶德人工智能大學(xué)博士后董家華和沈陽自動化所博士生王旭東,通訊作者為韓志研究員。
             
              在生成式世界模型方面,研究團隊提出了首個可用自然語言控制的 4D LiDAR 生成模型,實現(xiàn)了高逼真、可編輯的動態(tài)點云場景生成,可用于多種下游感知模型的安全驗證和閉環(huán)仿真。該研究成果LiDARCrafter: Dynamic 4D World Modeling from LiDAR Sequences被大會選為口頭匯報(Oral)論文,第一作者為博士生梁奧,通訊作者為趙懷慈研究員。
             
              上述研究成果得到了國家自然科學(xué)基金、國家重點研發(fā)計劃、機器人與智能系統(tǒng)全國重點實驗室自主項目、沈陽自動化所基礎(chǔ)研究項目等支持。(機器人學(xué)研究室 光電信息技術(shù)研究室)

            我要評論
            文明上網(wǎng),理性發(fā)言。(您還可以輸入200個字符)

            所有評論僅代表網(wǎng)友意見,與本站立場無關(guān)。

            版權(quán)與免責(zé)聲明
            • 凡本網(wǎng)注明"來源:儀表網(wǎng)"的所有作品,版權(quán)均屬于儀表網(wǎng),未經(jīng)本網(wǎng)授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應(yīng)在授權(quán)范圍內(nèi)使用,并注明"來源:儀表網(wǎng)"。違反上述聲明者,本網(wǎng)將追究其相關(guān)法律責(zé)任。
            • 本網(wǎng)轉(zhuǎn)載并注明自其它來源的作品,目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點或證實其內(nèi)容的真實性,不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。其他媒體、網(wǎng)站或個人從本網(wǎng)轉(zhuǎn)載時,必須保留本網(wǎng)注明的作品來源,并自負版權(quán)等法律責(zé)任。
            • 如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。
            • 合作、投稿、轉(zhuǎn)載授權(quán)等相關(guān)事宜,請聯(lián)系本網(wǎng)。聯(lián)系電話:0571-87759945,QQ:1103027433。
            廣告招商
            今日換一換
            新發(fā)產(chǎn)品更多+

            客服熱線:0571-87759942

            采購熱線:0571-87759942

            媒體合作:0571-87759945

            • 儀表站APP
            • 微信公眾號
            • 儀表網(wǎng)小程序
            • 儀表網(wǎng)抖音號
            Copyright ybzhan.cn    All Rights Reserved   法律顧問:浙江天冊律師事務(wù)所 賈熙明律師   儀表網(wǎng)-儀器儀表行業(yè)“互聯(lián)網(wǎng)+”服務(wù)平臺
            意見反饋
            我知道了