본문 바로가기

D&A12

[프로젝트] 한국 농인을 위한 수어 통역 시스템 구축 # 본 프로젝트는 '2023 6th D&A AI BigData Conference'에서 발표한 프로젝트임을 명시합니다. ( 2023.06.26 ~ 2023.12.01 ) 주제 한국 농인을 위한 수어 통역 시스템 구축 팀원 수어 사운드 스쿼드 (류병하, 이동근, 주민지, 천예은) 배경 현재 대한민국에는 청각/언어 장애인의 수보다 수어 통역사가 부족하여 청각/언어 장애인의 사회 참여와 생활 편의에 많은 어려움이 존재한다. 또한 새롭게 수어 공부를 하는데 있어 정형화된 수어 사전이 없어 동작 하나하나를 찾거나 물어가며 공부해야 하는 실정이다. 따라서 본 프로젝트에서는 한국의 청각/언어 장애인의 의사소통을 돕기 위한 수어 통역 시스템을 구축하는 것에 목표를 둔다. (본래 실시간 시스템을 구축하는 것을 목표로 하.. 2023. 12. 4.
[프로젝트] 내가 이모티콘이 된다면 # 본 프로젝트는 '2022 5th D&A BigData Conference'에서 발표한 프로젝트임을 명시합니다. ( 2022.07.02 ~ 2022.11.25 ) 주제 내가 이모티콘이 된다면 (StyleGAN을 이용한 이모티콘 생성) 팀원 신예주, 윤경서, 이경욱, 조문주 배경 현재 사용하는 이모티콘은 작가들이 이미 만들어 놓은 이모티콘으로 나의 본질적인 감정을 표현하는 데 있어 한계가 존재한다. 따라서 나의 표정을 담은, 내가 원하는 캐릭터의 모습의 이모티콘을 만들어 이모티콘을 사용하는 사람의 재미와 흥미를 더 돋우어 보자!! 방법 1. 이모티콘 이미지 생성 데이터 수집 및 가공 : '짱구는 못말려'에 나오는 등장인물의 이미지 수집 및 데이터 셋에 알맞은 형태로 가공 실제 이미지 그림체 변환 : '짱.. 2023. 2. 4.
[D&A Conference Session] GPT 이해하기 GPT (Generative Pre-Training of a Language Model) https://jalammar.github.io/illustrated-gpt2/?fbclid=IwAR1XE7gqs_m6oK__ugnIZbQRj-xjhBIMY24utFQs9fLjGw8-spau0BaKL6M The Illustrated GPT-2 (Visualizing Transformer Language Models) Discussions: Hacker News (64 points, 3 comments), Reddit r/MachineLearning (219 points, 18 comments) Translations: Simplified Chinese, French, Korean, Russian Th.. 2022. 8. 8.
[D&A Conference Session] StyleGAN 이해하기 StyleGAN ( A Style-Based Generator Architecture for Generative Adversarial Networks ) https://blog.promedius.ai/stylegan_1/ [GAN 시리즈] StyleGAN 논문 리뷰 -1편 StyleGAN은 PGGAN 구조에서 Style transfer 개념을 적용하여 generator architetcture를 재구성 한 논문입니다. 그로 인하여 PGGAN에서 불가능 했던 style을 scale-specific control이 가능하게 되었습니다. blog.promedius.ai https://airsbigdata.tistory.com/217 [논문 리뷰] StyleGAN: A Style-Based Ge.. 2022. 7. 15.
[D&A Conference Session] GAN 이해하기 GAN (Generative Adversarial Network) https://www.samsungsds.com/kr/insights/generative-adversarial-network-ai-2.html [외부기고] [새로운 인공지능 기술 GAN] ② GAN의 개념과 이해 비지도학습 GAN(Generative Adversarial Networks)의 개념에 대해 쉽게 설명한 글입니다. 새로운 인공지능(AI) 기술 GAN에 대한 궁금증을 해결해 보세요. www.samsungsds.com https://www.youtube.com/watch?v=AVvlDmhHgC4&t=1486s 참고 : 동빈나 유튜브 GAN은 실제와 비슷한 가짜 데이터를 생성하여 서로 다른 2개의 모델을적대적으로 학습.. 2022. 7. 3.
[D&A Deep Session] 9차시 - 16. BERT # BERT : BERT는 Transformer를 이용하여 구현되었으며, 위키피디아의 25억 단어와 BooksCorpus의 8억단어와 같은 레이블이 없는 텍스트 데이터로 사전 훈련된 언어 모델이다. 이와 같이 다른 작업에 대해서 파라미터 재조정을 위한 추가 훈련 과정을 파인 튜닝(Fine-tuning)이라고 한다. 결국 BERT는 특정한 task를 해결하기 위한 모델이 아닌, 언어 전반을 이해하고 이를 벡터로 표현하는데에 특화된 모델이다. * BERT의 기본구조 BERT는 Transformer 모델의 Encoder를 쌓아올린 구조입니다. BERT-Base는 12개의 layer, BERT-Large는 24개의 layer를 쌓은 구조이다. * BERT의 두 가지 특별 토큰 1. CLS -> 분류 문제를 풀기.. 2022. 5. 25.