분류 전체보기 310

[short] Pace My Race : Recommendations for Marathon Running, Jakim Berndsen (2019)

최근 몇년 동안 마라톤 훈련이나 마라톤 대회의 GPS 데이터가 크게 증가하면서 해당 데이터를 활용해 마라토너의 능력을 향상시켜주고, 잠재 타깃 사용자에게 페이스 조절해주는 연구가 진행되고 있다. 기존에도 마라톤 페이스에 관한 추천을 해주고 있었지만, 시간과 속도만 제공하는 것이 아니라 e-coach 형태로 페이스 조절(감속) 등의 추가적인 교육 프로그램까지 제공해준다는 것이 논문의 핵심이다. 사용자의 이전 기록과 더불어 사용자와 비슷한 다른 사용자의 데이터를 추합해 예측하기 때문에 사용자 맞춤 추천시스템이 된다. 단순히 해당 페이스로 뛰어라고만 제공해주면 속도를 따라잡기 위해 저장해둔 에너지를 소모해 완주지점까지 도달하지 못하고 중도포기하는 경우도 발생할 수 있지만, 해당 논문에서 제공하는 추천시스템은 ..

Understanding homophily of service failure within the hotel guest cycle: Applying NLP-aspect-based sentiment analysis to the hospitality industry (2020)

제목 그대로 호텔 Guest Cycle 내의 서비스 실패 유형을 이해하는 데 자연어 처리 측면의 분석기법을 사용하는 논문이다. 예전에는 WOM(Word of Mouth)의 구전 전달 방식으로 인해 주변 사람들에게만 말이 전달되었지만, 인터넷이 발전되어 가면서 e-WOM 형태로 변형되어졌다. 사람들은 해당 호텔을 이용하고 난 후 리뷰를 작성하는 것으로 본인이 좋았던 점, 불만족스러운 점을 작성하고 이를 분석해서 조금 더 이용객에 만족감을 제공해줄 수 있을 것이다. Guest Cylce은 총 4 스테이지로 구분해 어떤 스테이지에서 호텔 투숙객이 불만을 느끼는지 체크해 해당 스테이지를 개선함으로써 보다 소비자들에게 만족감을 줄 수 있고, 해당 논문에서는 Guest Cycle만 고려하는 것이 아니라 문화까지 접..

The cultural impact on social commerce: A sentiment analysis on Yelp ethnic restaurant reviews, Makoto Nakayama (2019)

Amazon, TripAdvisor, Yelp 등의 포털은 제품, 업종 등의 리뷰는 기업에 유용한 insight 제공해준다. 기업은 리뷰를 보고 소비자들의 불만사항을 체크할 수 있고, 소비자들은 해당 리뷰를 보고 제품, 가게의 정보를 획득할 수 있어 정보의 비대칭성이 완화될 수 있다. 전통적인 마케팅 WOM(word of mouth)의 경우에는 구두를 통한 의사소통으로 인해 가족, 친척, 친구 등의 좁은 범위 내에서만 영향을 주어, 상대적으로 영향이 덜했지만 전자 상거래로 변화되면서 리뷰에 대한 영향이 커지고 있다. 해당 논문에서는 Yelp dataset을 토대로 서로 다른 문화적 배경을 가진 고객들이 음식에 대한 평가 기준에 차이가 있는지 확인하고자 한다. 네덜란드 심리학자인 호프스테더가 주장한 문화차..

[GAN] Variants of GAN - DCGAN, LSGAN, SGAN

Contents DCGAN Deep Convolutional GAN(DCGAN), 2015는 기존의 GAN 모형은 nn.Linear로 결합되어 사용되었지만, conv layer를 통해서 연산을 진행한다. 되게 간단하면서도 아직까지도 선호되는 모델 중 하나이다. Discriminator의 nn.Sequential을 보면 LeakyReLU(0.2)와 convolution layer를 사용했다. Generator 의 경우에는 ReLU와 Deconvolution layer를 사용하고 D, G 둘다 pooling layer는 사용하지 않고 그 대신에 convlayer의 stride를 2이상으로 두고 진행했다. normalization의 경우에는 batch normalization을 사용하고, Adam optimi..

Deep Learning/GAN 2021.10.30

[GAN] Probability Distribution

GAN을 설명하기 앞서 Supervised Learning과 Unsupervised Learning에 대해서 간략하게 다루고 넘어가자. Supervised Learning은 input으로 image가 들어오면 Discriminative Model이 해당 image를 분류하는 것을 학습한다. 여자와 남자의 image가 들어오면 해당 image가 남자인지, 여자인지 구별해 표시해주는 역할을 한다. Unsupervised Learning은 Generative Model을 예로 들 수 있다. 해당 model은 Latent code가 주어졌을 때 이에 맞게 image를 생성하는 것이며, Generative Model은 training data의 distribution 을 학습한다. 간단한 Probability D..

Deep Learning/GAN 2021.10.30

[GAN] Generative Model

우리가 일반적으로 Generative Model을 생각하면 바로 GAN 이 떠오를 것이다. 번역을 하면 생성모델이긴 하지만 이 모델은 단순히 이미지를 생성만 하는 것이 아니라 다른 작업도 수행할 수 있다. 예를들어 다음과 같은 강아지 이미지가 있다고 생각해보자. 우리는 이 강아지와 유사한 이미지를 생성해낼수도 있고, 새로운 이미지가 들어왔을 때 이 이미지와 강아지 간의 확률값을 통해서 강아지인지 혹은 강아지가 아닌지 annomaly dectection도 수행할 수 있다. Density estimation처럼 어떤 이미지가 들어왔을 때 기존 이미지와 얼마나 유사한가 확률값을 출력해내는 모델을 Explicit model이라고 부르고, 단순히 이미지 생성만 할 수 있는 GAN과 같은 모델은 implicit m..

Deep Learning/GAN 2021.10.21

[NLP] Transformer

Sequential Model을 처리하는데 있어서 다루기에 많은 문제들이 발생한다. 끝이 잘리거나, 중간중간 생략이 되거나, 밀리거나 하는 등의 문제가 생기기 때문에 RNN처럼 Sequential 하게 input이 들어가면 Permuted되거나 Omitted 되는 경우 단어를 다루기 힘들어진다. 이와 같은 문제로 인해 기존의 RNN의 문제를 보완하려고 self-attention이라는 것을 타이틀로 Transformer가 등장하게 되었다. (Attention is All you Need, NIPS, 2017) [논문] Recurrent Neural Network(RNN)의 경우 input을 받아 hidden state를 거쳐 output이 나오며 many-to-one의 경우 이전 cell의 정보를 받아서 ..

[VISION] Semantic Segmentation

다음의 사진은 Semantic Segmentation을 하는 과정을 설명한다. 우리는 이미지에서 각 pixel마다 그 pixel이 어떤 것인지 분류를 하는 문제다. 우리는 이전에 AlexNet, GoogLeNet, ResNet 등 여러 CNN model을 공부해왔다. 만약 개, 고양이를 분류하는 문제를 다룬다고 할 때 이미지의 라벨이 개인지 고양인지 분류하는 문제로 접근하는 것이 아니라, 해당 pixcel은 배경이고, 사람이고, 물체임을 분류하는 방식의 접근이 Semantic Segmentation이다. Semantic Segmentation은 여러 용어로 불리우는데 Dense Classificaiton 혹은 per pixel classification이라고 한다. 딱봐도 일반적인 이미지를 분류하는 문제..

[VISION] Convolution Neural Network

CNN은 이미지에 주로 사용되는 것이라 볼 수 있다. 하지만 최근에는 이미지 뿐만 아니라 자연어처리에도 사용되고 여러 분야에서 다양하게 CNN을 활용한다. CNN은 convolution layer를 겹겹이 쌓아 분류 문제의 경우 class 만큼의 output을 만들어 낸다. CNN을 하기 위해서는 기본적으로 filter라는 개념을 짚고 넘어가야 한다. filter는 input데이터를 필터사이즈 만큼 곱해서 하나의 output을 출력하게 된다. 이 경우 해당 filter size만큼의 값들이 추출된다. 일반적으로 input 을 넣고 filter를 지난 후 nonlinear function(ReLU와 같은)을 거쳐 출력되며 padding이나 stride를 조정해 output 이미지의 사이즈를 조절할 수 있다..

Group Normalization (ECCV'18)

우리가 이미지 처리를 할 때 가장 많이 쓰이는 Normalization 기법은 구글에서 발표한 Batch Normalization 일 것이다. Batch norm은 Batch Normalization , Accelerating Deep Network Training by Reducing Internal Covariate Shift (2015)에 의해 제안된 모델이며 일반적으로 성능이 좋다고 알려져 있다. 하지만 뒷단의 Reducing Internal Covariate Shift라는 의미가 이후 논문들에 의해 지적을 받고 있다. 그럼에도 불구하고 왜 BN을 계속 사용하는가? 일반적으로 배치 사이즈가 크면 BN의 성능이 좋게 나오기 때문이다. 하지만 배치 사이즈가 작아지면 BN의 error는 가파르게 상승한..

Paper review/Others 2021.10.20
반응형