Embedding Entrie Graphs
Approach 1
본 강의에서는 node embedding이 아닌 entire graph를 embedding 하는 방법에 대해서 다룬다. graph embedding은 subgraph나 전체 entire graph를 embedding하는 것이 목표라고 할 수 있다.
이때

Approach 2
다음으로는 ''virtual node''를 만들어서 embedding하는 것이다. 아래의 그림과 같이 subgraph에서 node 들에 virtual node를 생성한 후 이를 embedding space로 encoding해서 사용하는 방법이며, Li et al., (2016)이 처음으로 제안하였다.

Approach 3: Anonymous Walk
entire graph를 embedding하는 경우에도 Random Walk와 비슷한 방법의 Anonymous Walk (ICML, 2018)를 사용한다. Random Walk의 경우는 start node에 따라 다양한 index가 도출될 수 있지만, Anonymous Walk는 단순히 node의 패턴만을 고려하는 것이다.


예를 들어 Random Walk 1은

위 그림은 Walk의 길이에 따른 Anonymous의 개수를 의미한다. 예를 들어, Walk의 길이가 3인 경우,
우리는 graph embedding을 최적화 하기 위해
Learn Walk Embeddings
딥러닝에서는 단순히 빈도의 형태로 Embedding을 하는 것이 아니라 Embedding을 학습하는 방식으로 진행된다. 그렇다면 당연히 Graph Embedding도 학습을 하는 방식이 존재할 것이다. Graph Embedding에서는 다음 번의 walk를 예측하는 형태로 학습할 수 있다.
graph vector
위 과정을 총 T 번 반복하게 된다면 starting node

이처럼 T 번의 Anonymous walk를 수행하고, 이를 Average 한 후 원래의 graph embedding과 결합하여 t의 anonymous walk를 예측하는 형태가 된다. (그림으로 보면 더 쉽다..) 상세한 구조가 궁금한 경우에는 Anonymous walk를 제안한 (ICML, 2018)을 찾아보자.
이렇게 해서 도출된
'Deep Learning > CS224W' 카테고리의 다른 글
[CS224W] Message Passing and Node Classification (3) | 2022.08.08 |
---|---|
[CS224W] PageRank (0) | 2022.07.18 |
[CS224W] Node Embeddings (0) | 2022.07.05 |
[CS224W] Traditional feature-based methods: Graph-level features (0) | 2022.07.04 |
[CS224W] Traditional feature-based methods: Link-level features (2) | 2022.07.03 |