日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

2024必將是時空預測爆發(fā)的一年,25種創(chuàng)新思路匯總

 天承辦公室 2024-03-07 發(fā)布于北京

24年將是「時空預測」領域迎來爆發(fā)的一年。主要原因在于,NeurIPS2023會議帶來了新的數據集,為以往無法解決的問題提供了新的場景;同時,技術創(chuàng)新也催生出了一些熱門方向,如與大型模型結合、神經過程、擴散模型等。

為了讓大家能夠及時掌握最前沿的創(chuàng)新思路并獲得靈感啟發(fā),我今天分享給大家「25篇必讀頂級會議論文」,這些論文都附有原文和源碼。除了之前提到的熱門方向外,還涉及因果時空建模、動態(tài)圖神經網絡建模、強化學習方法、時空元圖學習等內容。


1.AAAI2024

論文:Contrastive Trajectory Similarity Learning with Dual-Feature Attention

「簡述」:該文提出了一種基于對比學習的軌跡建模方法TrajCL,四種軌跡增強方法和一種新的基于雙特征自注意的軌跡主干編碼器。所得到的模型可以聯合學習軌跡的空間模式和結構模式。該模型不涉及任何遞歸結構,因此具有很高的效率。

圖片

2.NeurIPS 2023

論文:Sparse Graph Learning from Spatiotemporal Time Series

「簡述」:圖神經網絡在時空時間序列分析中的杰出成就表明,關系約束在神經預測體系結構中引入了有效的歸納偏差。該文提出了基于概率得分的方法,該方法將關系依賴性學習為圖上的分布,同時最大限度地提高任務的端到端性能。通過根據圖學習問題調整梯度估計器,控制學習圖的稀疏性和計算可擴展性。

圖片

3.ICML2023

論文:Spatial-Temporal Graph Learning with Adversarial Contrastive Adaptation

「簡述」:時空圖學習已經成為在各種城市傳感任務(例如,犯罪預測、交通流預測)的學習區(qū)域表示中對結構化時空數據建模的最先進解決方案。該文提出了一種時空對抗圖對比學習模型(STAG)來應對自適應自監(jiān)督圖增強的這一挑戰(zhàn)。具體而言,該文提出了一種可學習的對比學習函數,該函數能夠自動提取重要的多視圖自監(jiān)督信號,用于自適應時空圖增強。

圖片

4.KDD2023

論文:Localised Adaptive Spatial-Temporal Graph Neural Network

「簡述」:時空圖模型主要用于抽象和建??臻g和時間相關性。該文提出了自適應圖稀疏(AGS),這是一種圖稀疏算法,它成功地實現了ASTGNN的極端定位(完全定位)。將AGS應用于兩種不同的ASTGNN架構和九個時空數據集,可以觀察到ASTGNN中的空間圖可以稀疏99.5%以上,而不會降低測試精度。

圖片

5.www2023

論文:Automated Spatio-Temporal Graph Contrastive Learning

「簡述」:該文通過在多視圖數據源生成的異構區(qū)域圖上探索自動時空圖對比學習范式(AutoST)來解決上述挑戰(zhàn)。該框架建立在異構圖神經架構上,以捕獲與POI語義、移動流模式和地理位置有關的多視圖區(qū)域依賴關系。為了提高GNN編碼器對數據噪聲和分布問題的魯棒性,該文設計了一種帶有參數化對比視圖生成器的自動時空增強方案。AutoST能夠適應時空異構圖,并能很好地保留多視圖語義。

圖片

6.其他會議

1.論文:NuwaDynamics: Discovering and Updating in Causal Spatio-Temporal Modeling

「簡述」:數據的稀疏性和與部署傳感器相關的高成本導致了顯著的數據不平衡,過度定制且缺乏因果關系的模型會進一步損害推理方法的可推廣性。為此,該文首先為ST預測建立了一個因果概念,名為NuwaDynamics,旨在識別數據中的因果區(qū)域,并在兩階段過程中賦予模型因果推理能力。具體而言,該文最初利用上游自我監(jiān)督來辨別因果重要斑塊,向模型注入廣義信息,并對互補的瑣碎斑塊進行知情干預,以推斷潛在的測試分布。接著將數據轉移到下游任務中,以實現目標ST目標,幫助模型識別更廣泛的潛在分布,并培養(yǎng)其因果感知能力。

圖片

2.論文:Causality-Inspired Spatial-Temporal Explanations for Dynamic Graph Neural Networks

「簡述」:動態(tài)圖神經網絡(DyGNN)在動態(tài)圖的研究中獲得了顯著的普及,但由于其透明度低,很難從其預測中獲得人類可以理解的見解。該文提出了一種基于結構因果模型(SCM)的創(chuàng)新因果關系啟發(fā)生成模型,該模型通過識別瑣碎、靜態(tài)以及動態(tài)因果關系,進一步開發(fā)了一個基于動態(tài)VGAE的框架,該框架生成用于空間可解釋性的因果和動態(tài)掩碼,并通過用于時間可理解性的因果發(fā)明來識別沿時間范圍的動態(tài)關系。

圖片

    本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯系方式、誘導購買等信息,謹防詐騙。如發(fā)現有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多