近日,昆明理工大學信息工程與自動化學院李華鋒教授與合肥工業大學劉羽教授合作的論文《MulFS-CAP: Multimodal Fusion-supervised Cross-modality Alignment Perception for Unregistered Infrared-Visible Image Fusion》在《IEEE Transactions on Pattern Analysis and Machine Intelligence》在線發表。IEEE TPAMI是計算機視覺和模式識別領域頂尖期刊,主要收錄人工智能、模式識別、計算機視覺及機器學習領域的原創性研究成果,是該領域最重要的學術期刊之一。
論文模型圖
論文主要針對未配準的紅外與可見光圖像融合問題,研究了特征未對齊對融合結果的影響,并提出了一種創新的單階段融合方法——MulFS-CAP。該方法通過跨模態對齊感知,突破了傳統兩階段策略的局限,有效降低了計算成本,減少了因配準誤差帶來的信息損失,并提升了融合質量。由于紅外與可見光圖像在成像機制上的差異,源圖像通常存在顯著的空間錯位,直接融合可能導致偽影和邊界模糊等問題。因此,MulFS-CAP在實現更高效、更精準的圖像融合的同時,對紅外與可見光圖像融合的實際應用具有重要意義。
李華鋒教授為該文的第一作者,合肥工業大學劉羽教授為通訊作者。李華鋒教授是云南省人工智能重點實驗室的核心成員,計算機視覺與圖像處理創新團隊負責人。近年來,李華鋒教授團隊在多源圖像融合、低質量圖像恢復及目標識別等領域取得了顯著進展,研究成果多次在國際頂級會議和期刊如CVPR、AAAI、ACMMM及IJCV上發表。
論文鏈接:https://ieeexplore.ieee.org/document/10856402