グラフニューラルネットワークの代表的な電力制約と一般化誤差の推定

現在、グラフニューラルネットワークの研究における傾向の1つは、そのようなアーキテクチャの動作の分析、核法との比較、複雑さの評価、および一般化能力です。これはすべて、既存のモデルの弱点を理解するのに役立ち、新しいモデルのためのスペースを作成します。





この作業は、グラフニューラルネットワークに関連する2つの問題を調査することを目的としています。最初に、著者は、構造は異なるが、単純なGNNとより強力なGNNの両方で区別できないグラフの例を示します次に、VC境界よりも正確にグラフニューラルネットワークの一般化エラーを制限しました。





前書き

グラフニューラルネットワークは、グラフを直接操作するモデルです。それらはあなたが構造についての情報を考慮に入れることを可能にします。一般的なGNNには、順次適用される少数のレイヤーが含まれ、反復ごとに頂点表現が更新されます。人気のあるアーキテクチャの例:GCNGraphSAGEGATGIN









GNNアーキテクチャの頂点埋め込みを更新するプロセスは、次の2つの式で要約できます。





a_v ^ {t + 1} = AGG \ left(h_w ^ t:w \ in \ mathcal {N} \ left(v \ right)\ right)\\ h_v ^ {t + 1} = COMBINE \ left(h_v ^ t、a_v ^ {t + 1} \右)、

ここAGGは通常置換(の機能不変である合計平均最大等)、COMBINE頂点およびその近傍の表現を組み合わせた関数です。





ノードAの例を使用した2層GNNの計算ツリー。出典:https://eng.uber.com/uber-eats-graph-learning/
ノードAの例を使用した2層GNNの計算ツリー。出典:https://eng.uber.com/uber-eats-graph-learning/

より高度なアーキテクチャでは、エッジフィーチャ、エッジ角度などの追加情報が考慮される場合があります。





この記事では、グラフ分類問題のGNNクラスについて説明します。これらのモデルは次のように構成されています。





  1. まず、頂点はグラフ畳み込みのLステップを使用して埋め込むことができます





  2. (, sum, mean, max)









GNN:





  • (LU-GNN). GCN, GraphSAGE, GAT, GIN





  • CPNGNN, , 1 d, d - ( port numbering)





  • DimeNet, 3D-,





LU-GNN

G G LU-GNN, , , readout-, . CPNGNN G G, .





CPNGNN

, “” , CPNGNN .





S8 S4 , , ( ), , , CPNGNN readout-, , . , .





CPNGNN G2 G1. , DimeNet , , , , \角度A_1B_1C_1 \角度\下線{A} _1 \下線{B} _1 \下線{C} _1.





DimeNet

DimeNet G4 , G3, . , . , G4 G3 S4 S8, , , DimeNet S4 S8 .





GNN

. , , .





GNN, :





  1. DimeNet





  2. message- m_ {uv} ^ {\左(l \右)} \ Phi_ {uv} \underline{m}_{uv}^{\left(l\right)} = \underline{f}\left(m_{uv}^{\left(l\right)}, \Phi_{uv}\right)





  3. \left(c_v\left(i\right), t_{i, v}\right), c - i- v, t - .



    :



    h_{v}^{\left( l + 1 \right)} = f \left( h_{v}^{\left( l \right)}, \underline{m}_{c_v\left( 1 \right)v}^{\left( l \right )}, t_{1, v}, ..., \underline{m}_{c_v\left( d \left( v \right ) \right)v}^{\left( l \right )}, t_{ d \left( v \right ), v} \right )





  4. readout-









.





: LU-GNN,





h_v^{l + 1} = \phi \left( W_1x_v + W_2 \rho \left( \sum_{u \in \mathcal{N} \left( v \right)} g\left( h_u^l \right)\right) \right),

\phi,\ g,\ \rho - , x_v - v, , \rho \left(0\right) = 0,\ \forall v:  \lVert x_v \rVert_2 \le B_x,\ \forall x \in \mathbb{R}^r: \lVert \phi \left( x \right ) \rVert_{\infty} \le b < \infty,\ \phi\left( 0 \right ) = 0,\ g\left( 0 \right ) = 0. , \phi,\ g,\ \rho C_{\phi},\ C_{g},\ C_{\rho}, \lVert W_1 \rVert_2 \le B_1,\ \lVert W_2 \rVert_2 \le B_2. W_1、\ W_2、\ \ phi、\ g、\ \ rho GNN.

. \ベータ \ lVert \ beta \ rVert_2 \ le B _ {\ beta}.





f \左(G \右) - GNN y \ in \ {0、1 \}, p \ left(f \ left(G \ right)、y \ right)= y \ left(2f \ left(G \ right)-1 \ right)+ \ left(1-y \ right)\ left(1- 2 f \左(G \右)\右) - , p \左(f \左(G \右)、y \右)<0 .





, a = -p \ left(f \ left(G \ right)、y \ right), \ mathbb {I} \左[\右] - :





損失_ {\ガンマ} \左(a \右)= \ mathbb {I} \左[a> 0 \右] +(1 + \ frac {a} {\ガンマ})\ mathbb {I} \左[a \ in \ left [\ gamma、0 \ right] \ right]。

GNN f \ {G_j、y_j \} _ {j = 1} ^ m:





\ hat {\ mathcal {R}} \ left(f \ right)= \ frac {1} {m} \ sum_ {j = 1} ^ m loss _ {\ gamma} \ left(-p \ left(f \ left (G_j \右)、y_j \右)\右)

, , , , GNN . , (GNN, ), , , .





, :





  • ,





  • ( )





RNN





RNNとの比較では、類似性が見られます
C RNN,

\ mathcal {C}- “ ”: \ mathcal {C} = C _ {\ phi} C_gC _ {\ rho} B_2, r - , d - , m - , L - , \ガンマ- ,





, , \ tilde {\ mathcal {O}} \左(r ^ 3N / \ sqrt {m} \右)





GNN, ( readout-), . , , .





( ), . , , , , , , .





証拠とより詳細な情報は、元の記事を読む、著者の1人からレポート見ることによって見つけることができます








All Articles