1.自主研發完成情況
(1)完成基于多模態數據融合和實時感知技術研究:主要包括深度神經網絡特征提取、協同稀疏編碼技術應用以及融合策略與模型優化三個關鍵環節,這些環節環環相扣,共同構成了多模態數據融合感知技術的完整框架。
(2)完成基于大模型的場景理解與任務規劃技術研究:通過大模型的自監督學習能力,實現對復雜場景的深度理解與信息提取;利用多模態信息對齊與翻譯技術,增強不同數據模態之間的協同與融合效果;最后,結合先進的對話系統設計與優化方法,構建高效、自然的交互機制。這三個環節相互支撐,共同推動機器人在復雜環境中的場景理解與交互能力達到新的高度。
(3)完成人形機器人主動跟隨控制技術研究:首先,利用模仿學習理論開發步態控制算法,使機器人能夠有效地在各種地形上行進。其次,通過實時融合傳感器數據并優化控制參數,顯著提升了機器人的運動精度和穩定性。最后,通過對MoveIt框架下的上肢驅動系統進行優化,增強了機器人在執行復雜任務時的靈巧性和靈活性。這些技術的綜合應用,使得機器人不僅具備強大的 locomotion 能力,還能在多樣化環境中執行更為復雜的任務,極大地擴展了其應用范圍。
2.技術指標完成情況
(1)項目規定的技術指標為:
j表情驅動自由度不低于15個,可模擬不低于10種典型情緒表達。
k具備不低于10輪的持續對話能力,并具備雙向交流功能。
l行走跟隨速度不低于0.6m/s,人形機器人手臂末端操控誤差±1cm。
m具備語音、表情、肢體動作協調輸出能力。
(2)公司實際完成的技術指標為:
j表情驅動自由度26個,可模擬11種典型情緒表達。
k具備不低于15輪的持續對話能力,并具備雙向交流功能。
l行走跟隨速度0.8m/s,人形機器人手臂末端操控誤差±0.19cm。
m具備語音、表情、肢體動作協調輸出能力。