본문 바로가기

논문 리뷰

쉽게 이해하는 ViT(Vision Transformer) 논문 리뷰 | An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale ViT(Vision Transformer) 논문 리뷰를 해보겠습니다. Transformer는 NLP 테스크에서 Bert, GPT-3 등 기반 알고리즘으로 유명하죠. 이런 Transformer 알고리즘을 Vision 분야에서 사용합니다. 시작하기 앞서서 Transformer에 대해서 모르시는 분들은 아래 글을 읽어보시길 바랍니다. 이 글은 독자가 Transformer를 알고 있다는 가정을 하고, 작성했습니다. ATTENTION IS ALL YOU NEED 논문 리뷰 RNN이나 CNN이 아닌 새로운 구조를 개척한 Attention Is All You Need을 리뷰를 해보겠다. 특이한 구조를 가지고 있다. 한국어 리뷰1, 한국어 리뷰2, 논문을 참고하자. ABSTRACT sequence transductio.. 더보기
LANGUAGE MODELS ARE UNSUPERVISED MULTITASK LEARNERS, GPT-2 논문 리뷰 엄청난 퀄리티로 텍스트를 재생산하는 OpenAI에서 공개한 Language Models are Unsupervised Multitask Learners을 리뷰를 해보겠다. 실제로 이 논문이 공개됐을때, 엄청난 파급력을 보였다. 실제로 구현을 해봤을때, 한국어도 잘 됐다. 이정도의 퀄리티가 나오며, 현재는 풀버전의 GPT2를 공개했다. 한국어 리뷰1, 논문을 참고하자. ABSTRACT 여러 NLP task는 supervised learning 으로 특정 task에 맞는 datasets을 가지고 접근했다. 우리는 WebText라고 불리는 수백만 웹 페이지의 데이터로 explicit supervision 없이 language models을 학습한다. language model은 zero-shot task가 필.. 더보기
Improving Language Understanding by Generative Pre-Training (GPT) 논문 리뷰 GPT로 알려진 Improving Language Understanding by Generative Pre-Training 논문을 리뷰해보자! ATTENTION IS ALL YOU NEED 논문에서 소개한 Transformer Decoder를 12 쌓은 구조다. 논문과, 한국어 리뷰를 참고하며 읽어보자! ABSTRACT labeling 되지 않은 text corpora data가 충분하지만, 특정 task를 학습시키기 위한 labaling 된 data가 부족한 경우가 많다. 예를 들어 한국어의 경우 labaling 되지 않은 네이버 뉴스, 위키 같은 text corpora가 충분하지만 블로그의 품질을 체크 하는 labeling data가 충분하지 않을 수 있다. 이러한 문제는 실상 현실 세계에서 자주 발.. 더보기
BAM: BOTTLENECK ATTENTION MODULE 논문 리뷰 Deep neural networks의 성능 향상을 도와주는 BAM : Bottleneck Attention Module을 리뷰를 해보겠다. 한국어 리뷰와 논문 그리고 Github을 참고하여 읽어보자. ResNet, WideResNet, PreResNet, MobileNet 등에서 테스트를 통해서 성능향상을 확인했다. Introduction, Related Work 간단한 요약 BAM(Bottleneck Attention Module)은 DNN의 성능을 향상해준다. We explicitly investigate the use of attention as a way to improve network’s representational power in an extremely efficient way. 네트워크.. 더보기
NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE 논문 리뷰 Attention 기법을 처음 적용하여 긴 문장의 NMT(Neural machine translation)에서 성능을 향상시킨 NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE을 리뷰를 해보겠다. RNNsearch가 해당 모델이고, RNNenc가 이전 모델로 큰 성능향상을 하였다. 한국어 리뷰, 한국어 리뷰 유튜브 그리고 논문를 참고하자. ABSTRACT, Introduction 요약 Neural machine translation 이하 NMT는 machine translation에 최근 제안된 접근 방식이다. (해당 논문은 2015년에 발표되었다) 전통적인 statistical machine translation과 달리 NMT는.. 더보기
ATTENTION IS ALL YOU NEED 논문 리뷰 RNN이나 CNN이 아닌 새로운 구조를 개척한 Attention Is All You Need을 리뷰를 해보겠다. 특이한 구조를 가지고 있다. 한국어 리뷰1, 한국어 리뷰2, 논문을 참고하자. ABSTRACT sequence transduction models는 encoder and a decode를 포함하는 복잡한 recurrent or convolutional neural networks에 기초한다. 가장 성능이 좋은 모델은 attention mechanism을 통해 encoder and decode를 연결한다. 우리는 recurrence and convolutions neural networks를 제거하고 오로지 attention mechanisms에만 기초한 새롭고 간단한 network 구조를 제안.. 더보기