04/08 월
1. 최적화 이론 수업
- Conditional Gradient Descent (Frank-Wolfe)
2. Hybrik 코드 데모 추가 작업
04/09 화
1. Hybrik 코드 데모 작업
- 속도를 더 빠르게 만들기 위한 OSX, BEV 모델 아이디어 고안
2. SMPL 논문 리딩
04/10 수
1. 딥러닝 수업
04/11 목
1. 가산 출장
- 이것 저것 미팅들...
04/12 금
1. SQL을 활용한 데이터베이스 설계
2. Pytorch3D 환경설정
- 환경 설정 시 제대로 빌드되지 않는 문제가 다수 발생하였는데, PATH가 /.local/bin이 최우선으로 설정되어 있었어서 문제가 발생
- 또한 CUDA 경로가 꼬여있고 conda env pip를 사용하지 않아 문제가 다수 발생하여 이를 수정하는데 고생함
- 추후 문제 발생 원인 및 정상화 필요
04/13 토
1. 투빅스 생성 모델 프로젝트 회의
- 주제 정하기 (DiffusionDB, Style Transfer, Scene Text Editing)
04/14 일
1. 선형대수 강의
2. 최적화 복습
- Frank Wolfe 알고리즘
22-02 Conditional gradient method · 모두를 위한 컨벡스 최적화
22-02 Conditional gradient method Projected Gradient Descent 아래와 같은 제약조건을 가진 문제를 고려해 보자. \[\min_{x} f(x) \qquad \text{ subject to } x ∈ C\] \(f\)가 convex이면서 smooth하고, \(C\) 또한 convex 이면, project
convex-optimization-for-all.github.io
https://convex-optimization-for-all.github.io/contents/chapter13/2021/04/05/13_03_Dual_norms/
13-03 Dual norms · 모두를 위한 컨벡스 최적화
13-03 Dual norms 임의의 norm \(\| x \|\)를 살펴보자 \[l_p \text{ norm: } \lVert x \rVert_p = (\sum^n_{i=1} \rVert x_i \rVert_p)^{1/p}, \text{ for } p ≥ 1\] \[\text{Trace norm: } \lVert X \rVert_{tr} = \sum^r_{i=1} σ_i(X)\] norm \(\lVert x \rVert
convex-optimization-for-all.github.io
'TIL' 카테고리의 다른 글
[2024.04] 3주차 Today I Learned (0) | 2024.04.15 |
---|---|
[2024.04] 1주차 Today I Learned (0) | 2024.04.01 |
[2024.03] 4주차 Today I Learned (0) | 2024.03.25 |
댓글