목록전체 글 (163)
Bamboo is coming
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/zV1jJ/btsqLSBmQd3/OEMIINw4CShbjFwBtTyMC0/img.png)
논문 VIsual Explanation from Depp Networks via Gradient based Localization, Grad-CAM, 2017 CVPR Grad-CAM(Gradient-weighted Class Activation Mapping) XAI를 구현할 수 있는 시각적 설명 방법, class-discriminative localization technique Convolutional Neural Network (CNN) 기반의 모델이 만든 의사결정에 대한 'visual explanations'를 만드는 기술을 제안하며, 이는 CNN 기반의 모델을 더욱 투명하고 설명 가능하게 만듭니다. (Grad-CAM)은 final convolutional layer로 흐르는 target con..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/dx4ctJ/btsp64D5gCD/J7rjD6S9dthdSyz7GdL6J1/img.png)
논문이나 연구 분야에서 자주 언급되는 용어 중 하나인 Explainable AI에 대해 정리해보려고 한다. 배경 Neural Network는 서로 복잡하게 연결된 수백만개 이상의 parameter가 비선형으로 상호작용하는 구조로, 사람이 그 많은 parameter를 직접 계산하고 의미를 파악하기는 불가능하고 back propagation 덕에 간신히 parameter update만 가능한 구조이다. 복잡한 구조 덕에 성능은 기존 기계학습보다도 월등히 높아졌지만 Neural Network가 왜 그런 결과를 도출했는지는 알 수 없다. 그래서 흔히 Neural Network를 Black Box라고 부르기도 한다. XAI는 사람이 AI의 동작과 최종결과를 이해하고 올바르게 해석할 수 있고, 결과물이 생성되는 과..
https://wsshin.tistory.com/8 [논문 리뷰 및 코드구현] Simple Does It: Weakly Supervised Instance and Semantic Segmentation Simple Does It: Weakly Supervised Instance and Semantic Segmentation, CVPR 2017 이번 포스팅은 Semantic Segmentation을 위한 Weakly-Supervised Learning 관련 논문에 대해서 살펴보겠습니다. 먼저, Weakly Supervised Learning이라는 분 wsshin.tistory.com
https://wikidocs.net/book/6651 한땀한땀 딥러닝 컴퓨터 비전 백과사전 [가짜연구소](https://pseudo-lab.com/) 스터디 활동으로 모인 스터디 러너분들이 **딥러닝 컴퓨터 비전에 쓰이는 기초적인 개념와 배경지식**을 정리한 백과… wikidocs.net
https://wikidocs.net/180477 E_11. Validation / Test Loop Pytorch ## `with torch.no_grad():` and `model.eval()` `with torch.no_grad:` 는 backward pass스에 대한 그라디언트 계산을… wikidocs.net 1. from Scratch : KR Click , EN Click ∙ 2. Classification : KR Click , EN Click ∙ 3. Natural Language Processing : KR Click , EN Click ∙ 4. Object Detection : KR Click , EN Click ∙ 5. Reinforcement Learning : KR Click , ..
ImageFolder 이 방법을 사용하게 되면 분류에 사용 되는 라벨이 서브폴더의 이름으로 매겨지기 때문에 원하는 만큼 폴더를 만들어 놓은 뒤, 그 안에 나만의 이미지를 넣어두기만 하면 된다. 실제로 train_imgs.classes 와 train_imgs.class_to_idx 를 출력 해 보면 다음 처럼 클래스명과 클래스의 인덱스까지도 반환해 주는 것을 확인할 수 있다. ImageFolder return (path, class) def make_dataset( # ImageFolder 만들고 나서 호출할 수 있는 메소드 directory: str, class_to_idx: Dict[str, int], extensions: Optional[Tuple[str, ...]] = None, is_valid_f..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/cupRy6/btsrR52eyZZ/HP4Gq3BPqi3W2KkwcBfOL1/img.jpg)
train - 학습용 validation - 하이퍼파라미터 조정 및 모델 선택 test - 모델 평가, 다양한 행렬을 사용해 모델을 평가한다. (혼동행렬 등) Data set split 방법 Cross validation(교차검증) 데이터를 여러 번 반복해서 나누고 여러 모델을 학습하여 성능을 평가하는 방법 데이터를 여러 번 나눈 것의 평균적인 성능을 계산하면, 한 번 나누어서 학습하는 것에 비해 일반화된 성능을 얻을 수 있다. K-fold cross validation 가장 널리 사용되는 교차 검증 방법의 하나로, 데이터를 k개로 분할한 뒤, k-1개를 학습용 데이터 세트로, 1개를 평가용 데이터 세트로 사용하는데, 이 방법을 k번 반복하여 k개의 성능 지표를 얻어내는 방법이다. k=5인 경우를 예로 ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/cr1FGV/btspOBOlhvp/ByiV6PLEtn4rWUqqJPamT1/img.png)
calibaration이라고 하는 보정 기법 중 하나 calibration은 눈금, 눈금 재기 이런 뜻인데 calibration curve가 기계공학에서 보정곡선으로 쓰인다고 한다. label smoothing label smoothing은 딥러닝의 신뢰도를 개선하기 위한 모델 보정(model calibration) 기법이다. 일반적으로 multi-class 분류는 over-confidence 자신감 과잉이다. 예측 확률의 결과보다 정확도의 기대값이 더 낮다. d 예를 들어 개와 고양이를 분류하는 모델이 어떤 사진을 보고 고양이일 확률을 70%로 예측한다면 실제로 정답을 맞출 확률이 70%에 가까워야 보정이 잘 이뤄졌다고 할 수 있다. 보통 주황색 막대그래프가 정확도, 파란색 막대그래프가 예측 확률, 위..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/cIOryB/btspxqAp0Mz/NuLqcrRkBoALMEPsTqyfj0/img.png)
Scaling 1. Normalization(min-max normalization = scaling normalization) 2. Standardization(z-score normalization) 3. Regularization 정의 입력값의 범위(scale)를 균일하게 맞추어 같은 정도의 범위(중요도)를 가질 수 있게 해주는 것. 오버피팅을 막기 위한 방법 중 하나로 오버피팅의 원인이 학습 데이터와 테스트 데이터 간의 분포 차이일 수 있다. 효과 scale이 큰 feature의 영향이 비대해지는 것을 방지. Local minima에 빠질 위험이 감소되고 최적값에 더 빠르게 도달할 수 있음. (학습 속도 향상) scale이 크면 노이즈가 생성되기 쉬워 overfitting이 될 위험이 높음. 종류..