목록전체 글 (20)
Hello Potato World

⋆ 。 ˚ ☁︎ ˚ 。 ⋆ 。 ˚ ☽ ˚ 。 ⋆ [XAI study_ Interpretable Machine Learning] 20210802 XAI study 발표자료 (참고블로그주소 References) LRP: Layer-wise Relevance Propagation LRP : 분해를 통한 설명(Explanation by Decomposition)을 통해 Neural Network의 결과물을 이해할 수 있게 도와주는 방법 input x가 총 d차원으로 이루어져있다고 하면, d차원의 각각의 feature들이 최종 output을 도출하는데에 서로다른 영향력을 가지고 있다고 가정하고 이 기여도(Relevance Score)를 계산하여 분석하는 방법이다. $x$ : sample image $f(x)$ :..

⋆ 。 ˚ ☁︎ ˚ 。 ⋆ 。 ˚ ☽ ˚ 。 ⋆ [XAI study_ Interpretable Machine Learning] 7.3 Detecting Concepts - Black-box 모델을 설명하는 방법의 두 가지 관점 Feature-based approach Concept-based approach - 지금까지 본 Feature-based approach 방법들의 단점 Feature들이 Interpretability 관점에서 전부 유용하지 않다. (ex) image에서 각각의 pixel의 중요도가 의미있는 해석을 만들진 않음 도출되는 explanation의 표현이 feature의 갯수에 의해 제약을 받는다. - Concept-based Approach concepts : 어떠한 추상적인 것들도 ..

⋆ 。 ˚ ☁︎ ˚ 。 ⋆ 。 ˚ ☽ ˚ 。 ⋆ [XAI study_ Interpretable Machine Learning] 7.2 Pixel Attribution (Saliency Maps) (비슷한 의미로 불리는 용어들) Pixel attribution = Sensitivity map = Saliency map = Pixel attribution map = Gradient-based attribution method = Feature relevance = Feature attribution = Feature contribution - 두 가지의 다른 방식의 Attribution 1. Feature attribution Methods prediction이 얼마나 변화했는지에(Negatively/Pos..

⋆ 。 ˚ ☁︎ ˚ 。 ⋆ 。 ˚ ☽ ˚ 。 ⋆ [Video Tracking paper review] 최근 MOT에 관심이 생겨서 관련 내용들이나 issue들에 관해 공부해보고자 했는데, MOT연구 동향의 큰 흐름과 중요한 issue들을 잘 보여주고 있어서 매우 유익했던 논문이다. 특히 최근에 딥러닝 분야를 흔들고 있는 Transformer에 흥미가 많았는데 Video Tracking에서도 활용되어 좋은 성능을 보이고 있다는 것을 볼 수 있었어서 더욱 인상깊었던 것 같다. MOTR MOTR은 Transformer기반의 구조로 구성되어 있고, 아래 3가지 concept들을 통해 기존 MOT의 전통적인 framework의 문제점들을 해결하였다. 전체 구조가 end-to-end 로 연결된 framework T..

⋆ 。 ˚ ☁︎ ˚ 。 ⋆ 。 ˚ ☽ ˚ 。 ⋆ [XAI study_ Interpretable Machine Learning] 6.4 Influential Instances 머신러닝 모델은 Training Data로 학습된 결과물이기 때문에 하나의 Training Instance를 삭제하는 것은 결과 모델에 영향을 준다. Influential Training Instance 해당 instance의 삭제가 모델의 "Parameters"또는 "Prediction"에 상당한 변화를 주는 Data 머신러닝 모델을 "Debug"하거나, Prediction을 "Better Explain"할 때 유용할 수 있다. - Outlier Dataset의 다른 Instance들과 멀리 떨어져 있는 Instance 거리(ex...