목록전체 글 (163)
Bamboo is coming
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/DvLTA/btstOiljByN/EKgvZustn8lDCz64wqraTk/img.png)
Multiclass Support Vector Machine (SVM) loss 흔히 사용되는 Multiclass Support Vector Machine (SVM) loss를 먼저 공부해보자. The SVM loss is set up so that the SVM “wants” the correct class for each image to a have a score higher than the incorrect classes by some fixed margin Δ. margin Δ에 의해서 각각의 이미지가 잘못된 클래스가 올바른 클래스보다 더 높은 점수를 가지는 것을 SVM이 원하게 하도록 설정된다. 지난 2강에 배운 score function을 loss function에 대입한 계산은 다음과 같다...
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/xd4Os/btstTpplq1a/loMMogKX5sXmNMFOnX8EZK/img.png)
1강 vision의 역사 및 소개 2강 Image Classifier image를 넣고 label을 받는 이미지 분류기 이미지 자체의 픽셀값으로 분류를 한다. Nearest Negibor Classifier 머신러닝 알고리즘(SVM, K-means clustering, Decision tree, K-Nearest Neighbor) 거리 계산 방식 L1 distance는 맨하탄 거리라고도 불리며 각 데이터의 차를 절댓값을 씌운 값을 의미한다. 테스트 이미지와 트레이닝 이미지의 각각 원소별로 (pixel wise, elemental wise) 계산을 해서 행렬의 전체 합을 내어 테스트 이미지와 트레이닝 이미지의 거리를 구한다. Q. 트레이닝 데이터의 크기에 따른 분류 스피드는? A. 선형적 NN = 트레이닝..
벡터의 내적 열벡터와 행벡터의 형식끼리 곱할 수 있음. 두 벡터의 차원이 같음 유닛벡터 \( \hat{i} = \begin{bmatrix} 1\\0 \end{bmatrix}] \) - 수평 \( \hat{j} = \begin{bmatrix} 0\\1 \end{bmatrix} \) - 수직 ||a||= a벡터의 크기 https://soki.tistory.com/19
언어 모델은 단어들의 확률 분포이다. 역사적으로 확률 기반이었으나 2015년 이후에 딥러닝 기반 언어 모델이 등장하면서 문장을 벡터로 표현하게 된다. unigram - 나열된 단어가 동시에 나올 확률, 독립 확률의 결합을 이야기하는 모델 \[ P(w_1 w_2 \cdots w_n) = \prod P(w_i)\] 단점, 단어의 순서를 고려하지 않음 bigram - 단어의 순서를 고려하지 않았던 unigram을 개선. 조건부 확률을 이용해서 언어의 분포 확률을 표현한 모델 $$P(w_i|w_1 w_2 \cdots w_{i-1})=\prod P(w_i w_{i-1})$$ \(w_1\)부터 \(w_{i-1}\) 단어가 나오고 마지막 으로 \(w_i\) 가 나올 확률은 직전 w와 w의 조건부 확률의 곱이다. n-..
MLE는 모수적인 데이터 밀도 추정 방법이다. 모든 데이터에 대한 밀도가 아니라 파라미터로 구성된 어떤 확률밀도함수에서 관측된 표본 데이터 집합을 x라고 할 때 이 표본들에서 파라미터를 추정하는 방법이다.
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/zTqEW/btstkpkVbhA/DS3UaYDpnWNopy4MOChyk1/img.png)
깨봉 $\pi$는 반지름이 1인 반원의 길이 3.14 sin 은 걸어 올라갔을 때 높이는 몇 배 sin 90일때 걸어올라간 걸이 = 높이 = 1 sin 30일때 정삼각형으로 보고 1/2 cos 는 90도에서 x를 뺀것의 sin $sin = \frac{높이}{빗변} = 빗변 sin=높이$ $cos = \frac{밑변}{빗변} = 빗변 cos = 밑변$ 그러므로, x는 밑변인 빗변cos가 되고 y는 높이인 빗변 sin이 된다 상단 그림에서는 x = r cos(A), y= r sin(A)가 됐다. 수학에서 쌍곡선 함수(双曲線函數, 영어: hyperbolic function)는 일반적인 삼각함수와 유사한 성질을 갖는 함수로 삼각함수가 단위원 그래프를 매개변수로 표시할 때 나오는 것처럼, 표준쌍곡선을 매개변수로 ..
확률밀도함수의 미분 다변량정규분포(multivariate Normal) Langvein dynamics 수열의 합 : $\pi$ 수열의 곱 : $\prod$ https://youtu.be/ix09cEMmwb0
https://lhw0772.medium.com/study-da-domain-adaptation-%EC%95%8C%EC%95%84%EB%B3%B4%EA%B8%B0-%EA%B8%B0%EB%B3%B8%ED%8E%B8-4af4ab63f871 [Study]DA(Domain Adaptation)알아보기 기본편 오늘은 Domain Adaption에 대해서 공부해보도록 하겠습니다 lhw0772.medium.com dada하고 voxelmorph https://github.com/voxelmorph/voxelmorph DaDA: Distortion-aware Domain Adaptation for Unsupervised Semantic Segmentation [NeurIPS 2022, Oral] | Distortion..
목차 1. 개요 노이즈가 왜 필요한가? 1. Denoising Diffusion Probabilistic Models, DDPM 논문 (2020) 1-1.Denoising Diffusion Probabilistic Models, DDPM 깃허브 3. Latent Diffusion 4. Stable Diffusion - Denoising Score Matching: A New Framework for Generative Models 논문 (2019) 1. 개요 diffusion 개념에 대해 거슬러 올라가보면 물리학의 확산 현상을 마주하게 된다. 유체를 이루는 분자나 입자들이 서로 상호작용함에 따라 확산이 이루어지는 현상과 이를 통계적으로 다루기 위한 개념인 브라운 운동이 있다. 1970년에 나온 Brown..