전체 글330 [Ubuntu] Ubuntu 22.04 카카오톡 설치 # 22.04 카카오톡 설치 Ubuntu 버전을 22.04로 업그레이드 한 뒤 가장 먼저 한 일은 카카오톡을 설치하는 것이었다. 아직 카카오톡 리눅스 버전을 정식 지원하지 않아 Wine을 사용해야 하기 때문에 구글 검색을 통해 고수분들의 방법을 참고해서 실행하였다. 1. 카카오톡 홈페이지에서 .exe 파일 다운https://www.kakaocorp.com/page/service/service/KakaoTalk 사람과 세상을 향한 모든 연결의 시작, 카카오톡#메신저 #오픈채팅 #카카오톡 #플랫폼www.kakaocorp.com 2. Wine 프로그램 설치우선 Ubuntu에서 윈도우 프로그램을 사용하기 위해 Wine을 설치해 주었다.# 32비트 아키텍처 활성화sudo dpkg --add-architecture.. 2023. 11. 13. [Paper Review] METER 논문 이해하기 『 An Empirical Study of Training End-to-End Vision-and-Language Transformers. ICCV. 2021. 』 본 논문은 실험 위주의 논문으로 이전까지 주로 사용하던 CNN 기반의 방법 대신 Transformer 기반의 Vision-Language Pretraining 모델을 만드는 것을 목표로 한다. VQA Task에서 사용되는 모델이며 Fully Transformer VLP 모델을 End-to-End로 구성하였다. 0. Abstract 본 논문에서는 Fully Transformer-based Vision-Language model인 METER(Multimodal End-to-end TransformER)를 소개한다. 모델 구조는 크게 5가지로 나누.. 2023. 11. 4. [VSCode] VSCode 터미널에서 PIP로 설치했지만 Package가 없다고 나오는 문제 Ubuntu 환경 VSCode의 터미널에서 아나콘다 환경을 사용할 때 pip로 특정 패키지를 설치했지만 막상 Python 환경에서 해당 패키지를 Import할 때 해당 패키지가 없는 오류가 나오는 경우가 있다. 문제이 때 VSCode의 터미널에서 pip list를 입력해보면 ./local/lib의 site-package가 나오는 것을 확인할 수 있는데, 분명 아나콘다 가상환경인데도 로컬 환경의 pip list가 나오는 문제가 발생한다. (이 때 일반 Ubuntu 터미널에서 아나콘다 가상환경을 실행해 pip list를 입력해 보면 해당 환경의 pip list가 정상적으로 나오는 것을 확인) 해결우선 VSCode 터미널과 Ubuntu 터미널 각각에서 echo $PATH를 입력해 연결된 경로를 한 번 확인해.. 2023. 10. 25. [Ubuntu] 시스템 로그 확인 Ubuntu를 사용하다보면 프로그램을 실행할 때 시스템적으로 오류는 나는데 정확히 무슨 문제인지 모르는 경우가 있다.. 그럴 때에는 시스템 로그를 확인해보고 잘못된 코드를 확인 및 수정 하면 되는데...!! 이번 기회에 시스템 로그를 확인할 수 있는 경로를 알아두도록 하자 :) vi /var/log/syslog 리눅스에서 var 디렉토리는 variable의 약자로 각종 로그 파일들이 기록된다. 물론 각종 로그뿐만 아니라 Database의 Data, User의 의 로그인 정보들이 저장된다. 이 중 syslog 파일을 확인해보면 기록된 시스템 로그를 확인할 수 있고, 이 로그를 활용해 문제 코드를 확인 및 수정하면 원활하게 프로그램을 작동시킬 수 있다. 2023. 10. 21. [23.10.21] OpenPose 환경 빌드 D&A Conference 준비로 OpenPose 환경을 빌드해 보았다. 이전에 Ubuntu 20.04 환경에서 빌드를 시도해 보았지만 잘 되지 않아 포기했었는데 이번에는 Window 10 환경에서 다시 시도해 보았다. 1. OpenPose Code https://github.com/CMU-Perceptual-Computing-Lab/openpose/releases/tag/v1.7.0 Release OpenPose v1.7.0 · CMU-Perceptual-Computing-Lab/openpose OpenPose v1.7.0 Latest OpenPose v1.7.0 github.com 처음에는 OpenPose 공식 Github를 clone해서 사용하였는데 여러 블로그를 보다보니 가장 마지막으로 배포한 1.. 2023. 10. 21. [MariaDB] MariaDB 사용하기 프로젝트를 진행하다 보니 SQL을 활용한 MariaDB를 사용할 일이 생겼다..!! SQL을 공부한지 오래되어 주로 사용하는 구문이 아니면 많이 까먹었지만, 이번 기회에 환경을 세팅하며 새록새록 기억을 되살려 보았다 :) 우선 MariaDB를 설치한 후 사용자를 생성하는 과정은 다음과 같다. # 사용자 계정 생성 CREATE USER '아이디'@'%' IDENTIFIED BY '비밀번호'; # CREATE USER 'id'@'%' IDENTIFIED BY 'password'; # 사용자 권한 주기 GRANT ALL PRIVILEGES ON 데이터베이스.* TO '아이디'@'%'; # GRANT ALL PRIVILEGES ON *.* TO 'id'@'%'; # 새로고침 FLUSH PRIVILEGES; ht.. 2023. 10. 14. [Git] Git Stash 다른 분들과 하나의 Git Branch에서 협업을 하다보면 내가 작업한 내용을 Push 하기 전에 다른 분이 원격 Branch에 Push 하여 최신 버전이 아닌 내 코드를 바로 Push 하지 못하는 경우가 있다!! 이런 경우 우선 Git Pull을 해준 후에 다시 내 코드를 올려주어야 하는데, 이 경우 단순 Pull을 하면 내가 작성한 코드가 날아가게 된다.. 그럴 때 사용해 주는 방법은 git stash 를 입력해 임시 branch로 내가 작성한 코드를 Commit 해 두는 것이다. Git Stash 이후에 최신 원격 Branch의 정보를 Pull 해주고 git stash pop 위의 코드로 새로 Pull한 Branch와 내가 임시로 저장해 둔 Branch를 Merge 해 주면 내가 작성한 코드의 손실.. 2023. 10. 14. [ToBig's] BERT 논문 이해하기 『 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. NAACL. 2019. 』 BERT는 구글에서 발표한 논문으로 기존 RNN 기반의 모델들의 순차적으로 데이터를 입력해야한다는 문제점을 극복하여 양방향으로 정답을 보고 단어를 예측할 수 있도록 학습시킬 수 있는 방법을 제안한다. 0. Abstract BERT : Bidirectional Encoder Representations from Transformers BERT는 Unlabeled 데이터로 Pre-train한 후 특정 Task에 대해 Fine-Tuning을 진행하는 모델이다. 기존에 Pre-trained BERT에 output layer를 추가하는 것.. 2023. 9. 13. [X:AI] DDPM 논문 이해하기 『 Denoising Diffusion Probabilistic Models. NeurIPS. 2020 』최근 비전 태스크에서 매우 핫한 Diffusion Model들.. 그 기초가 되는 DDPM 논문을 톺아보도록 하자!! 들어가기 전에... 현재 이미지 생성 모델에는 여러 연구 방향이 존재하고 그 중 대표적으로는 GAN, VAE, Flow-based, Diffusion 방법이 존재한다. GAN과 VAE는 비슷한 시기에 등장하여 생성 모델에 많은 성능 향상을 이끌어 왔고 Diffusion은 최근 가장 핫한 방법론이라 불릴만큼 중요한 모델이다. 이에 Diffusion에 대한 공부를 하기 전에 이 4가지 모델의 차이점이 어떻게 다른지 우선 알아보도록 하겠다.GAN(Generative Adversarial .. 2023. 8. 17. [X:AI] DINO 논문 이해하기 『 Emerging Properties in Self-Supervised Vision Transformers. ICCV. 2021 』 DINO(Self-Distilation with no Labels)는 Facebook에서 발표한 Self-Supervised Learning 논문이다. 0. Abstract 본 논문은 ViT(Vision Transformer)에 Self-Supervised Learning을 적용하여 그 효과를 확인하였다. 이 때 단순히 성능이 높을뿐만 아니라 두가지 이점이 존재한다. Self-Supervised ViT는 이미지의 Semantic Segmentation에 대한 명시적인 정보를 담고있다. (이는 Supervised ViT나 Convolution Network에서 나타나지 않음.. 2023. 8. 10. [X:AI] Swin Transformer 논문 이해하기 『 Swin Transformer: Hierarchical Vision Transformer using Shifted Windows. ICCV. 2021 』 ViT의 등장 이후 Vision Task에 Transformer 모델을 활용하기 위한 연구자들의 노력은 계속되었다. Swin Transformer는 그중 하나인 모델로 Microsoft Research Asia에서 2021년 발표한 논문이다. 본 논문은 기존 ViT에서 모든 Patch에 대해 Self Attention을 진행하여 많은 Computational Cost가 발생한다는 것을 지적하며 각 Patch를 Window로 나누어 Self Attention을 진행 + 해당 Window를 Shift하여 다시 Self Attention을 진행하는 방법론.. 2023. 7. 20. [X:AI] Taskonomy 논문 이해하기 『 Taskonomy: Disentangling Task Transfer Learning. CVPR. 2018 』 Computer Vision을 공부하다보면 Object Detection, Pose Estimation 등 Computer Vision 안에도 수많은 Task가 있는 것을 알 수 있다. 일반적으로 우리는 이렇게 나누어진 한 가지 Task 내에서 PreTrained 된 모델을 가지고 와 새로운 데이터를 Transfer Learning 하여 학습, 평가를 진행하는데, Taskonomy 논문에서는 이러한 Transfer Learning 과정이 한 가지가 아닌 여러 Task 사이에서 이루어질 수 있는 방법을 제안한다. 지금까지 딥러닝을 공부해온 사람이라면 참신하다는 생각을 가질 수 밖에 없고 실제로.. 2023. 7. 13. 이전 1 ··· 10 11 12 13 14 15 16 ··· 28 다음