大语言模型与推理可靠性
聚焦大模型推理稳定性、知识一致性与可解释分析。
实验室的核心研究方向
聚焦大模型推理稳定性、知识一致性与可解释分析。
围绕 CV、Foundation Model、多模态学习、强化学习、LLM Reasoning 与 Open-world Agent 展开研究。
围绕规则学习、知识抽象与可信推理机制展开研究。
研究模型融合、任务算术与参数空间对齐等高效适配方法。
关注文本到动作、跨模态生成与生成模型评测方法。
研究多模态空中智能,人机交互(导盲机器狗)与认知启发方法。
探索情感理解、数字人生成及认知相关智能应用。