近日,人工智能領(lǐng)域的權(quán)威學(xué)術(shù)會議The 40th Annual AAAI Conference on Artificial Intelligence (AAAI 2026) 公布了Main Track論文接收結(jié)果,二年級碩士研究生陳林茂作為1作的論文“Generating in-distribution counterfactual explanation for graph neural networks”以O(shè)ral形式獲得錄用,將獲邀參加大會的現(xiàn)場口頭報告。AAAI是中國計算機學(xué)會(CCF)認(rèn)定的A類國際會議,本屆會議將于2026年1月20日至27日在新加坡舉行,共收到23680份有效投稿,最終接收論文4167篇,錄用率為17.6%,其中Oral論文占比20%左右。

附論文基本信息:
標(biāo)題:Generating in-distribution counterfactual explanation for graph neural networks
作者:陳林茂(華南師范大學(xué))、賀超波(華南師范大學(xué) 通訊作者)、程俊偉(華南師范大學(xué))、李春英(廣東技術(shù)師范大學(xué))、官全龍(暨南大學(xué))
摘要:圖神經(jīng)網(wǎng)絡(luò)(GNN)由于其處理圖結(jié)構(gòu)數(shù)據(jù)的強大能力而受到越來越多的關(guān)注,但其可解釋性仍然是一個重大的挑戰(zhàn)。一種有效的解決方案是為GNN模型提供反事實解釋,其目的是回答“應(yīng)該如何擾動輸入實例以改變模型的預(yù)測?”.現(xiàn)有的工作主要關(guān)注于生成可以有效改變模型預(yù)測的解釋,但忽略了解釋是否與原始數(shù)據(jù)分布保持一致,從而導(dǎo)致分布漂移問題。為了解決該問題,提出了一種稱為ICExplainer的新方法,用于在原始分布內(nèi)生成解釋。具體而言,ICExplainer將基于圖擴散的生成模型引入反事實推理,將其視為圖分布學(xué)習(xí)的優(yōu)化目標(biāo)。使用變分推理估計輸入圖的真實分布,以保留基本的結(jié)構(gòu)和語義信息,然后推斷的分布作為指導(dǎo)反向過程的先驗知識,以確保生成的解釋既是反事實的,又是分布一致的。在真實和合成的數(shù)據(jù)集上進行了大量實驗,結(jié)果驗證了ICExplainer的優(yōu)異性能。