Contents
기존 연구에서 주로 사용하는 Sequential Recommendation은 Local Context Information을 사용하거나 오직 Item Loss만을 사용해서 구축하고 있기 때문에, Sequence Representation을 제대로 학습하지 못한다는 문제점을 언급하며, 이를 해결하기 위해 Weighted Item Transition Graph (WITG)를 사용하는 Graph Contrastive Learning for Sequential Recommendation (GCL4SR) 기법을 제안하는 논문이다.
Introduction
Sequential Recommendation의 State-of-the-art (SoTA) 모델들은 우수한 성능을 보이고 있으나, 다음과 같은 문제점이 존재한다. 첫 번째, 기존 기법들은 User Interaction을 개별적으로 모델링하고 Local Context만을 사용한다. 이와 같은 방법은item 내의 subsequence를 고려하지 못한다. 두 번째, User Behavior은 매우 Sparse하다. 기존 연구의 경우 오로지 Item 정보만을 수행하기 때문에 데이터가 매우 Sparse해서 추천 성능이 제대로 발현되지 않는다. 세 번째, Sequential Recommendation은 주로 Implicit Feedback Sequence를 입력으로 사용하는데, 이와 같은 데이터는 노이즈(Noise)가 존재할 수 있다.
본 연구에서는 위 세가지의 문제를 해결하고자 먼저, Item Transition Pattern을 파악하기 위해 Weight Item Transition Graph (WITG) 기법을 구축한다. WITG는 Global Context Information을 제공할 수 있다. 그 다음으로, Data Sparse 문제를 해결하기 위해 WITG 에서 이웃을 샘플링(Sampling)해 각 Interaction Sequence View를 증강(Augmentation)한다. 그런 다음, 그래프 대조학습(Contrastive Learning) 기법을 적용해 증강된 View를 바탕으로 학습한다. 이와 같은 기법은 Global Context Information을 통합(Incorporate)할 수 있는 것뿐만 아니라, 각 Item Transition의 중요도를 설명하고 노이즈의 영향을 약화시킬 수 있다. 본 연구에서는 위 과정을 적용한 Graph Contrastive Learning for Sequential Recommendation (GCL4SR) 기법을 제안하였다.
Preliminaries
사용자는
기존 연구와 다른 점은 모든 Users; Behavior Sequence에 대한 Item Transition Patterns의 Global View를 제공하기 위해

The Proposed Recommendation Model
본 연구에서 제안하는 GCL4SR는 총 4단계로 구성되어 있다. 1) Graph Augmented Sequence Representation Learning, 2) User-specific Gating, 3) Basic Sequence Encoder, 4) Prediction Layer.

Graph Augmented Sequence Representation Learning
WITG
그런 다음, Graph Neural Network를 사용하여
본 연구에서는 첫 번째 Layer는 GCN 기법을 따라 사용하였으며, 이후에는 GraphSage 방법을 따라 Layer를 쌓아서 사용하였다. 그 다음으로는 Graph Contrastive Learning Objective, 즉, Contrastive Loss를 측정하는 단계다.
User-specific Gating
개별 사용자들은 제품의 일부 특정 속성에만 관심이 있을 수 있기 때문에 Global Context Information은 User-specific 해야 된다. 본 연구에서는 기존 연구를 참고하여 개인 취향에 맞는 Global Context Information을 캡쳐하기 위해 User-specific Gating Mechanism을 사용하였다.
그다음 단계는 Representation Alignment Objective 단계다. 해당 단계에서는 Maximum Mean Discrepancy (MMD)를 사용하여 학습한다. 즉,
Basic Sequence Encoder
세 번째 단계는 Basic Sequence Encoder 단계다. 해당 기법은 SASRec을 골조로 해서 아래와 같은 수식으로 인코딩한다.
Prediction Layer
Prediction Layer는 단순히 도출된 결과를 곱하는 것이 끝이며, 아래와 같은 수식으로 표현가능하다.
Multi Task Learning
Sequential Recommendation은 다음 제품을 예측하는 것에 초점을 두고 있다. 본 연구에서는 목적에 맞게 Seuqence
위 과정을 전체적으로 종합하면 본 연구에서는
Experiments
본 연구에서 제안하는 GCL4SR의 성능을 검증하기 위해 LightGCN, FPMC, GRU4Rec, Caser, SASRec, HGN, SR-GNN, GC-SAN, GCE-GNN, S
Performance Comparison은 기존의 SoTA 모델과 성능을 비교했을 때 어떤 성과를 보이는지 (Table 2)를 다루고 있고, Ablation Study는 본 연구에서 제안하는 GCL4SR 기법의 구성요소 즉, Graph Contrastive Loss, MMD, edge Weight 등의 요소를 제거했을 때 성능 차이가 있는지를 기술한다. Sensitivity Study는 본 연구의 Hyper-parameter를 달리 설정했을 때 성능의 변화가 있는지를 실험한 것이며, 마지막 Impact of Sequence Encoder는 다양한 Sequence Encoder를 사용했을 때 성능 차이가 존재하는지 확인하는 실험이다. 본 연구에서는 SASRec, GRU, HGN을 사용하여 성능을 비교하였으며, SASRec의 성능이 가장 우수한 것을 확인하고 이를 채택하여 사용하였다.




