본문 바로가기

대외활동/LG Aimers20

[LG Aimers] 인과추론 - 2. Causal Effect Identification LG Aimers 학습 내용 정리 출처 : https://www.lgaimers.ai/ 인과 효과 (Causal Effect) 계산하는 방법 Causal Effect Identifiability 1. Query 2. Causal Diagram 3. Data Z변수 : X와 Y에 서로 영향을 미치는 교란 변수 W변수 : X와 Y 중간에 있는 변수 이렇게 X, Y, Z, W 변수가 있는 world에서 Z가 X 변수에 미치는 영향이 사라지게 된다면 기존 $P(v) = P(z) * P(x|z) * P(w|x) * P(y|w,z)$ 에서 x에 대한 z의 조건부 확률이 1이되어 $P(v) = P(z) * P(w|x) * P(y|w,z)$ 형태로 나타나게 된다. - 결합확률을 식으로 decompose한 뒤 x가 나오.. 2022. 7. 25.
[LG Aimers] 인과추론 - 1. Causality LG Aimers 학습 내용 정리 출처 : https://www.lgaimers.ai/ 인과추론 : 인과성의 의미, 인과 추론을 위한 기본적 개념 인과성이란? (Causality) : 하나의 어떤 무언가가 다른 무엇을 생성함에 있어 영향을 미치는 것 인과성과 인공지능, 기계학습, 데이터사이언스와의 연결고리 : - 인공지능은 어떤 에이전트가 목표를 성취하기 위해 합리적인 액션을 취할지를 학습한다. 이 때 환경에 변화를 줘서 원하는 상태로 변화시키는 인과관계로의 해석이 가능하다. - 기계학습에서는 데이터의 상관성을 학습하며 이 결과를 커뮤니케이션 하는 과정에서 상관성과 인과성을 모두 복합적으로 고려한다. 인과 계층 1. 가장 기본적인 관측 계층 ( 변수들의 상관성 파악 ) 2. 실험 계층 ( 주어져 있는 실.. 2022. 7. 25.
[LG Aimers] 설명가능한 AI - 3. Explainable AI(XAI) - 3 LG Aimers 학습 내용 정리 출처 : https://www.lgaimers.ai/ XAI 평가 방법 ( Metrics ) 1. Human-based visual assessment (사람들이 직접 XAI방법들이 만들어낸 설명을 보고 평가 ) - AMT(Amazon Mechanical Turk) Test 단점 : 쉽게 알 수 있지만 시간이 오래 걸림 2. Human annotation ( 사람들이 이미 만들어놓은 데이터를 이용 ) - Pointing game : Bounding box를 이용해서 평가하는 방법 - Weakly supervised semantic segmentation : 어떤 이미지에 대해 Classification label만 주어져 있을 때 이를 활용하여 픽셀별로 객체의 label.. 2022. 7. 24.
[LG Aimers] 설명가능한 AI - 2. Explainable AI(XAI) - 2 LG Aimers 학습 내용 정리 출처 : https://www.lgaimers.ai/ 다양한 XAI 기법 Saliency map 기반 방법 1. CAM ( Class Activation Map ) - Saliency map 기반의 설명 가능 방법 - GAP(Global Average Pooling) layer를 만들어 설명을 제공, GAP layer는 각 Activation map의 모든 Activation들을 평균낸다. - 어떤 Activation map에 activation이 크게 된다는 것은 map이 주어진 입력과 관련이 많다는 뜻이고, 이를 결합하는 w가 크다는 것도 최종 분류에 큰 영향을 주는 Activation이라는 뜻이므로 그것을 결합하면 입력에 대한 예측을 잘 설명하는 방식이 된다. - .. 2022. 7. 23.
[LG Aimers] 설명가능한 AI - 1. Explainable AI(XAI) - 1 LG Aimers 학습 내용 정리 출처 : https://www.lgaimers.ai/ 설명가능한 AI ( Explainable AI, XAI ) - 모델들이 어떻게 동작하는지 모름( 블랙박스 ), 이 때 예측 결과가 사람에게 직접 영향을 미칠 때 문제가 된다. ex. 자율주행, 의학 진단 등.. - 최근 대두되고 있는 AI 모델의 편향성 문제 ( 특정 인종, 성별에 편향된 결과 ) - 이 편향성의 이유를 찾아 해결해야 현실에 적용시킬 수 있다는 것! ex. 말 사진 오인식, COMPAS crime prediction - 자율주행의 경우 사고의 책임을 찾기 위해 설명할 수 있어야 한다. - 왜 알고리즘이 그런 예측 결과를 냈는지 설명할 수 있어야 신뢰가 가능하다! * XAI : 사람이 모델을 쓸 때 그 .. 2022. 7. 23.
[LG Aimers] 비지도학습 - 3. Unsupervised Representation Learning LG Aimers 학습 내용 정리 출처 : https://www.lgaimers.ai/ 비지도학습 ( Unsupervised Representation Learning ) - Pretext Learning : 잘 정리된 Representation, 유용한 정보를 만들기 위한 학습 Task - Self-Supervised Learning : 본래 Unsupervised 였던 문제가 Script 하나로 Supervised 문제로 변하는 기법 - Mutual Information의 컨셉 : 어떻게 하면 여기있는 이 Variable과 저 Variable 사이에 공유하는 정보의 양이 얼마큼인지를 숫자로 계산할 수 있을까? - CPC ( Contrastive Predictive Coding ) https://kae.. 2022. 7. 22.