본문 바로가기

TiL89

[2023.12] 2주차 Today I Learned 12/11 월 1. Voice Conversion 코드 Inference https://github.com/WiFiHan/autodub GitHub - WiFiHan/autodub Contribute to WiFiHan/autodub development by creating an account on GitHub. github.com 2. 역행자 챕터 3 독서 12/12 화 1. METER 모델에 Klue/roberta-base 모델을 녹여서 코드 구현 - 기존 kobert 모델 tokenizer 적용 안한 오류 수정하여 다시 Pretrain 실행 12/13 수 1. Python 중급 프로그래밍 기법 확인 - MultiProcessing / MultiThread - 동기 / 비동기 - 데코레이터, 제네레.. 2023. 12. 12.
[23.04.28] SKT AI Fellowship 준비 # 바쁜 일주일의 시작 1. SKT AI Fellowship 준비 지금까지 팀 구성, 주제 선정 모두 하지 못했던 SKT AI Fellowship 5기 준비를 드디어 시작했다. 팀 구성, 주제 선정을 끝내고 이제 시작하는데 아직은 막막한 시점인 것 같다. 주제는 6번 X-Ray 영상 AI 모델을 이용한 자동 진단으로 정했고, 관련 자료를 찾기 위해 X-Ray 데이터, Self Supervised Learning에 대한 리서치를 우선 진행하였다. https://www.sktuniv.com/46d62b06-5ac2-4892-b46b-b21984f5ad02 Fellowship 5기 모집 참가 대상 www.sktuniv.com 특히 Self Supervised Learning은 이론적으로는 논문에서 여러번 들어.. 2023. 4. 28.
[23.04.24] GLocal-K 2 # 다시 한 번 월요일 1. GLocal-K 수업을 다 들은 뒤 오늘은 블로그에 GLocal-K 논문 리뷰를 작성했다. 어제 논문을 읽으며 정리했던 Word와 번역본을 보며 정리를 시작했는데, 분명히 어제 이해했다고 생각했던 내용도 오늘 다시보니 어려웠던 부분이 많았다. 확실히 SOTA 논문이라 최신 기술들을 많이 결합하여 사용했다보니 이 개념들을 완전히 파악하려면 끝없이 내려가야하는 상황이 발생했다. Bipartite Graph(이분 그래프), Hadamard Product(아다마르 곱) 등 여러 개념을 추가적으로 찾아보았고, 하나하나 찾아가며 정리하다보니 오늘 마무리 할 수 있다고 생각했던 리뷰 작성이 늦춰지게 되었다. 속도보다는 이해하는 것이 중요하니까 조급해 하지말고 찬찬히 정리해 보도록 하자.... 2023. 4. 24.
[23.04.23] GLocal-K # 이번 주 공부를 하고도 TIL을 제때 작성하지 못했는데 다시 힘내서 기록을 남겨보도록 하자! 1. 빅데이터분석기사 필기 합격 우선 2주 전에 본 빅데이터 분석기사 필기시험에 합격하였다! ADP 필기 시험을 본지 얼마 안되어서 하루만 공부하고 봤는데도 다행이 좋은 성적으로 통과할 수 있었다. 아마 우리 과를 3학년까지 열심히 들은 사람은 필기는 쉽게 통과할 수 있을거라 생각한다.. 실기시험이 6월에 있는데 틈틈히 공부해서 잘 준비해보도록 하자 2. 캡스톤 논문 읽기 오늘은 아침부터 나가 캡스톤 논문을 읽었다. 이번에 읽은 추천 시스템 논문은 현재 SOTA를 기록하고 있는 GLocal-K 논문이었다. SOTA이기도 하고 최신 논문이기에 어려울 거라 생각했지만, 글도 잘 쓰여있고 길이도 길지 않아 쉽게 읽.. 2023. 4. 23.
[23.04.17] X:AI 논문 복습 # 월요일 좋아 1. X:AI 논문 복습 - ELMo, GPT 오늘은 지난번에 건강 이슈로 빠졌던 X:AI 논문을 복습하는 시간을 가졌다. 우선은 ELMo와 GPT 논문부터 다시 보았는데, 최근 비주얼 컴퓨팅 수업에서 NLP와 관련된 공부를 하고 있어 지난번에 논문을 봤을 때보다 더 이해가 잘 되었다. 특히 ELMo와 같은 Embedding 방법에 대해 다시 한번 생각을 해보게 되었는데, 그 이유는 Transformer를 비롯한 NLP 논문을 보면 어떤 Embedding을 사용했는지에 대한 기술이 잘 없기 때문이다. 그래서 최근 인기 있는 GPT도 성능이 잘 나오기 시작한 것이 모델링 보다도 좋은 Embedding 방법이 적용됐을 것이라는 생각이 들었다. ELMo나 GPT 논문이 나올 시기에는 아직 Pr.. 2023. 4. 17.
[23.04.14] RetinaNet # 감기 기운이 다 나은 금요일 1. Conditional GAN 오늘은 Conditional GAN 코드 과제를 마무리 했다. 기존에 짰던 코드가 dimension, epoch에 잘못된 점이 있다는 것을 발견해 이를 수정하고 모델을 돌리는데 시간을 많이 투자하였다. 물론 내가 저번에 코드를 짤 때 이해했던 GAN의 개념이 잘 못 되었던 것은 아니라 이론 그대로 구현만 하면 되어서 쉽게 수정할 수 있었다. Linear layer로 GAN 모델을 구축했더니 Epoch를 늘리더라도 성능이 많이 좋지 않았다. Condition을 주었음에도 큰 성능 개선을 보지 못해 아쉬움이 남았지만, 그만큼 Convolution의 공간 정보 학습이 중요하다는 점을 파악할 수 있었다. 2. RetinaNet Conditiona.. 2023. 4. 15.