Rohdy
Rohdy의 study
Rohdy
전체 방문자
오늘
어제
  • 분류 전체보기 (32)
    • 석사 이야기 (0)
    • DL Study (17)
    • Pr4AI Study (1)
    • RecSys (3)
    • GraphMining (9)
    • 논문 (2)

블로그 메뉴

  • 홈
  • 태그
  • 방명록

공지사항

인기 글

태그

  • 시그모이드
  • sigmoid
  • ML
  • 2020
  • 대학원
  • 대학원컨택
  • 대학원준비
  • 대학원면접
  • IDGL
  • GSDS
  • gradientdescent
  • gnn
  • 로지스틱
  • 연세대
  • 논문요약
  • NeurIPS
  • KAIST
  • LinearRegression
  • 데이터사이언스
  • 정보대학원
  • 대학원입시
  • logistic
  • 컨택

최근 댓글

최근 글

티스토리

hELLO · Designed By 정상우.
Rohdy

Rohdy의 study

GCN, GraphSAGE, GAT 설명
GraphMining

GCN, GraphSAGE, GAT 설명

2022. 12. 14. 15:13

Graph Convolutional Network(GCN)

가장 기초적인 GNN 이후 발전 모델 중 하나로 GNN과 비교해서 공식을 살펴보면 그 차이를 명확하게 알 수 있다.

GCN의 달라진 점은 Aggregation에 있는데 기본 GNN에서는 단순히 neighbor의 평균을 내었다면 GCN에서는 자신 Node와 Neighbor들의 합을 자신 Node의 Neighbor 개수와 Neighbor Node의 Neighor 개수로 곱한 것의 Root 값으로 나눈다.

 

이건 단순한 GCN에 대한 설명이고, GCN도 Spectral Graph Convolution인지 Spatial Convolution인지 부터 다양한 접근이 가능하다.

 

참조: https://arxiv.org/abs/1609.02907

 

Semi-Supervised Classification with Graph Convolutional Networks

We present a scalable approach for semi-supervised learning on graph-structured data that is based on an efficient variant of convolutional neural networks which operate directly on graphs. We motivate the choice of our convolutional architecture via a loc

arxiv.org

 

GraphSAGE

GraphSAGE에 대한 motivate는 Aggregation을 할때 평균보다 더 나은 방법이 있는가이다.

위의 공식에 보면 Aggregation function이 있는데 Mean, Pool, LSTM 3가지 방법을 제시한다. 또한 앞선 Model에서는 더하는 방식을 했다면 GraphSAGE는 Concat하여 사용한다는 차이점이 있다./

https://proceedings.neurips.cc/paper/2017/hash/5dd9db5e033da9c6fb5ba83c7a7ebea9-Abstract.html

 

Inductive Representation Learning on Large Graphs

Requests for name changes in the electronic proceedings will be accepted with no questions asked. However name changes may cause bibliographic tracking issues. Authors are asked to consider this carefully and discuss it with their co-authors prior to reque

proceedings.neurips.cc

 

Graph Attention Network(GAT)

GAT는 edge의 weight를 Attention을 이용해서 학습하는 아이디어에서 시작하였다.

Node들도 중요한 Node와 덜 중요한 Node가 있을텐데 우리는 각각 동일한 중요도로 받아드렸기 때문이다.

GAT는 먼저 Feature \(h_i\)를 weigth matrix에 곱해 \(\tilde{h_i}\) 생성한다.

그 뒤 \(\tilde{h_i}\)과 \(\tilde{h_j}\)를 concat하여 attention coefficent를 곱해 sigmoid function에 통과시킨다.

Attention probabiliy를 계산한다.

K-th의 attention 이 있다면 Concat하거나 평균을 내어 하나로 만들어 준다.

 

참조: 신기정 교수님 PPT

'GraphMining' 카테고리의 다른 글

Basic GNN 설명  (0) 2022.12.13
K-Core & Katz index  (1) 2022.10.07
Kronecker Graph Model  (0) 2022.09.26
Community Guided Attachment & Forest Fire Model  (0) 2022.09.26
Basic Models  (0) 2022.09.14
    'GraphMining' 카테고리의 다른 글
    • Basic GNN 설명
    • K-Core & Katz index
    • Kronecker Graph Model
    • Community Guided Attachment & Forest Fire Model
    Rohdy
    Rohdy

    티스토리툴바