본문 바로가기

딥러닝(Deep Learning)56

[X:AI] SegNet 논문 이해하기 『 SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation. 2015. 』 SegNet은 도로를 달리면서 촬영한 영상에 대해 pixel-wise semantic segmentation을 수행하기 위해 설계된 모델이다. 기존 semantic segmentation 모델들이 해상도가 떨어진다는 단점을 Encoder-Decoder 구조를 통해 극복하였고, 이후 semantic segmentation task에 많은 영향을 끼친 모델이다. 0. Abstract 본 논문에서는 Semantic pixel-wise segmentation에 사용하는 SegNet 모델을 제안한다. 이 모델은 Encoder-Decoder에 pixel.. 2023. 4. 19.
[X:AI] RetinaNet 논문 이해하기 『 Focal Loss for Dense Object Detection. 2017. 』 본 논문은 Object Detection task에서 사용하는 Label 값에서 상대적으로 Background에 비해 Foreground의 값이 적어 발생하는 Class Imbalance 문제를 극복할 수 있는 Focal Loss Function을 제안한다. 0. Abstract 1-stage Detector 모델들은 빠르고 단순하지만, 아직 2-stage Detector 모델들의 정확도를 넘지 못했다. 논문에서는 그 이유를 class imbalance로 파악했다. 따라서 이를 극복할 수 있는 Focal Loss와 이 방법이 활용된 RetinaNet을 제안하였다. 1. Introduction R-CNN 같은 2-sta.. 2023. 4. 14.
[Paper Review] Factorization Machines 논문 이해하기 『 Factorization Machines. 2010. 』 이번 논문은 추천 시스템 캡스톤 발표를 위해 읽은 Factorization Machines 논문이다. 이 논문에서는 기존에 사용하던 SVM, MF(Matrix Factorization)의 단점을 지적하며 SVM과 Factorization Model의 장점을 합친 FM(Factorization Machines) 모델을 제안한다. 0. Abstract 추천 시스템은 주로 Sparsity가 큰 Rating Matrix 상에서 계산이 이루어진다. 하지만 기존 머신러닝에서 주로 사용되던 SVM(Support Vector Machine) 모델은 Sparsity 문제에서 잘 작동하지 않는다는 단점을 가진다. 따라서 이러한 문제를 극복하기 위해 본 논문에서는.. 2023. 4. 9.
[SKT AI 커리큘럼] 추천시스템 - 11. Hybrid Recommender System SKT AI 커리큘럼 학습 내용 정리 출처 : T Learning Portal (https://sharedlp.sk.com) 11. Hybrid Recommender System 추천 시스템은 현업에서 한가지로만 사용하지 않는다 -> 여러 모델을 결합하여 사용! ※ SKT에서 사용하는 Hybrid Recommender System 1-stage - 추천할 것이 많기 때문에 추천할 대상을 줄여줌 - High Recall Model (여러 분포의 Variation들이 추천한 후보들을 취합하는 방식) - Collaborative Filtering, Contents based, Profile based 2-stage - 첫 번째 stage를 통해 구한 후보들에 대해 Ranking System 사용 - 강화학습 .. 2023. 3. 29.
[X:AI] Transformer 논문 이해하기 『 Attention Is All You Need. 2017. 』 Transformer 모델은 현재 Vision, NLP 등 분야를 가리지 않고 사용되고 있다. 그만큼 "Attention is all you need" 논문은 현재까지도 많은 영향을 끼치고 있고 최근 인공지능이 이렇게 빨리 발전할 수 있는 원동력이 되었다고 생각한다. Transformer 모델에 대해서는 이전에 개념공부를 한 적이 있지만, 논문을 뜯어보며 리뷰를 했던 것은 아니기에 이제서야 진행해보려 한다. Transformer 개념 정리 https://rahites.tistory.com/66 [D&A Deep Session] 9차시 - 15. Attention, Transformer ## 지금까지 Sequence data를 처리하는데 사.. 2023. 3. 21.
[Paper Review] Model Soup 논문 이해하기 『 Model soups: averaging weights of multiple fine-tuned models improves accuracy without increasing inference time. 2022. 』 Github : https://github.com/mlfoundations/model-soups GitHub - mlfoundations/model-soups Contribute to mlfoundations/model-soups development by creating an account on GitHub. github.com 이번 논문은 학부 연구생 활동을 하며 읽은 Model soup 논문이다. 이 논문에서는 기존에 사용하던 앙상블 기법이 k개의 모델을 활용할 때 그에 비례하여 .. 2023. 3. 19.