美高梅官方

答辩公告
我的位置在: 美高梅官方 > 答辩公告 > 正文
曹意宏博士生答辩公告
浏览次数:日期:2025-05-13编辑:

学位论文简介

场景感知是计算机视觉核心任务,在自动驾驶等领域应用广泛,但有监督方法依赖大规模标注数据且感知能力存在局限。一方面,复杂环境易引发域偏移,降低模型在未见场景中的泛化能力;另一方面,现有方法多关注有限视场未遮挡区域,难以满足全面感知需求。本文以领域自适应场景感知为主线,围绕跨域数据依赖降低与场景感知能力提升展开研究。主要贡献如下:

(1) 提出基于特征自适应精炼-聚集-分离的跨域语义分割方法,分别针对不同域与类别特征设计适应机制。该方法通过动态筛选高置信度特征、领域平衡聚类和自适应特征分离,有效缩小领域间特征差距。

(2) 提出重要性注意与原型对比协同的无源跨域语义分割方法,在无源域和无目标域标签下提取领域不变与特定知识。基于领域偏移对预测概率分布影响的分析,引入重要性注意机制,并结合原型对称交叉熵与原型增强交叉熵损失,增强模型的目标域适应能力。

(3) 提出揭示注意力与非模态引导混合驱动的无缝感知方法,结合全景视角与非模态预测以提升遮挡感知能力。设计交替排列的可变形块嵌入以缓解全景畸变,并通过遮挡感知融合模块实现多层级任务的统一推理。此外,构建了公开的BlendPASS数据集与场景适应测试基准

(4) 提出全面上下文知识无约束学习驱动的无源无缝感知方法,包括全面伪标签学习方法与非模态驱动上下文学习方法。前者提高伪标签稳定性,后者利用空间感知混合策略增强遮挡推理能力,该方法有效的缓解了多重约束条件使场景上下文知识难以学习的问题。


主要学术成果

[1] Cao Yihong, Zhang Hui, Lu Xiao, Chen Yurong, Xiao Zheng, Wang Yaonan. Adaptive refining-aggregation-separation framework for unsupervised domain adaptation semantic segmentation. IEEE Transactions on Circuits and Systems for Video Technology, 2023. (中科院SCI一区,TOP期刊)

[2] Cao Yihong, Zhang Jiaming, Shi Hao, Peng Kunyu, Zhang Yuhongxuan, Zhang Hui, Rainer Stiefelhagen, Yang Kailun. Occlusion-Aware Seamless Segmentation. European Conference on Computer Vision (ECCV), 2024. CCF-B类)

[3] Lu Xiao, Cao Yihong, Liu Sheng, Long Chengjiang, Chen Zipei, Zhou Xuanyu, Yang Yimin, Xiao Chunxia. Video shadow detection via spatio-temporal interpolation consistency training. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2022. CCF-A类)

[4] Zhang Hui, Tang Junkun, Cao Yihong, Chen Yurong, Wang Yaonan, Wu QM Jonathan. Cycle consistency based pseudo label and fine alignment for unsupervised domain adaptation. IEEE Transactions on Multimedia, 2022, 25: 8051-8063. (中科院SCI一区,TOP期刊)

[5] Peng Weixing, Wang Yaonan, Zhang Hui, Cao Yihong, Zhao Jiawen, Jiang Yiming. Deep Correspondence Matching-Based Robust Point Cloud Registration of Profiled Parts. IEEE Transactions on Industrial Informatics, 2023, 20(2): 2129-2143. (中科院一区,TOP期刊)

[6] 张辉, 杜瑞, 钟杭, 曹意宏, 王耀南. 电力设施多模态精细化机器人巡检关键技术及应用. 自动化学报, 2024, 51: 1-23.