본문 바로가기

2025/035

[25.03.10] 영어 회화 스터디 [Daily Conversation]- 정당화하다justify - 정신을 못차리다out of it - 정신차리다feel awake - 필수적인essential, crucial, mandatory, vital, necessary, indispensable - 귀찮게 굴다bug(ex. I didn't want my friends to bug me) - 나서다step in(ex. I would step in and tell someone) - 걸리다get caught(ex. If he ever got caught lying to me) - 억누르다, 감추다withhold - 무서운 일이다It's alarming - 조용히 지내다keep it low-key - 욕심greed, avarice(격식체) - 석방re.. 2025. 3. 10.
[2025.03] 2주차 Today I Learned 03/10 월1. 생성모델 활용 원하는 결과 만들기- GPU vRAM이 낮아 최신 좋은 모델을 사용하지 못해 아쉽..2. 영어회화 스터디 03/11 월1. 생성모델 활용 원하는 결과 만들기- 3일차(vRAM의 한계에 봉착...) 아직까지 좋은 결과를 위해서는 좋은 GPU가 필요하다는 것을 다시금 느낌 2025. 3. 10.
[25.03.05] 영어 회화 스터디 [Daily Conversation]- 한 몫 하다play a part in - 잘 맞는compatible with - 망치다screw it up - 개인주의individualistic ideology - 야단치다chew me out - 응원하다root for - 상황이 바뀌다the tables have turned - 생각을 바꾸다, 다시 의식을 차리다come around - 심사숙고하다mull it over - 장례를 치르다lay someone to rest → lay the prejudice to rest(편견을 종결시키다) - 뒷전으로 밀리다take a back seat - ~관계 없이, 불문하고regardless of - 관점outlook - 아마도Most likely - 기 빨리다feel dr.. 2025. 3. 5.
[Paper Review] CMT 논문 이해하기 『CMT: Convolutional Neural Networks Meet Vision Transformers. CVPR. 2022.』이번에 소개할 논문은 Convolutional Neural Networks Meet Vision Transformers 이다. ViT의 등장 이후 기존의 CNN에 활용된 기술을 그대로 사장시키는 것이 아니라 어떻게 하면 ViT에 Convolution을 녹일 수 있을까? 하는 호기심에서 비롯된 논문으로 최근까지도 CNN, RNN, Transformer의 여러 조합으로 새로운 모델들이 등장하고 있는 것을 생각하면 충분히 Contribution이 있는 논문이라고 생각한다. 어떻게 Vision Transformer와 CNN의 장점을 합쳤는지 그 방법에 집중하면서 읽어보도록 하자.0.. 2025. 3. 3.
[2025.03] 1주차 Today I Learned 03/03 월1. CMT 논문 리뷰 마무리https://rahites.tistory.com/373 [Paper Review] CMT 논문 이해하기『CMT: Convolutional Neural Networks Meet Vision Transformers. CVPR. 2022.』이번에 소개할 논문은 Convolutional Neural Networks Meet Vision Transformers 이다. ViT의 등장 이후 기존의 CNN에 활용된 기술을 그대로 사장시키는rahites.tistory.com 03/04 화1. 회사 업무2. ViTAE 논문 리딩 시작3. 책 읽기 03/05 수1. 개강!!- 인공지능을위한알고리즘 수업2. 영어회화 스터디 03/06 목1. 회사 업무2. 교수님 미팅 및 기업 박람.. 2025. 3. 3.