목록분류 전체보기 (163)
Bamboo is coming
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/Oeiz1/btsytekUkg4/JHzTYHTf9ZLyFoSK7JsgeK/img.png)
행렬의 기본변형 1. 가우스 조단 소거법 2. 변수소거법 3. 좌기본변형 선형대수학 연습문제 및 책 (http://matrix.skku.ac.kr/2015-Album/BigBook-LinearAlgebra-2015.pdf) 선형대수학 연습문제 답 (http://matrix.skku.ac.kr/LA-Lab/Solution/) 인공지능을 위한 기초 수학 (http://matrix.skku.ac.kr/math4ai/)
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/DvqoZ/btsytKJGUC5/NxYSkNxQnAbfm2VIW7oKi1/img.webp)
시작점이 원점이 아닌 벡터를 다룰 경우 \(P(x_1,x_2)\) 를 시작점, \(Q(y_1,y_2)\) 를 끝점으로 갖는 유향선분은 다음과 같은 성분을 갖는 벡터이다. \[ \vec{PQ}=OQ'=(y_1-x_1,y_2-x_2) \] 벡터의 계산 벡터의 거리(norm, length, magnitude) 코시-슈바르츠 부등식 직교와 평행 단위벡터, 직교벡터, 정규직교벡터 벡터에 대한 삼각부등식(벡터의 거리) 단위벡터 단위벡터를 사용해서 벡터를 표현하면 크기와 방향을 한눈에 알아보기 쉽다. 직선의 방정식: 기울기(방향 벡터)와 한 점 정사영 벡터는 벡터 위에 그림자 직선 U에 대한 V의 정사영 (\(proj_UV\)) 과 V에서 정사영(\(proj_UV\))을 뺀 직선 U 위의 벡터는 직선 L에 직교(or..
https://thebook.io/080246/0324/ 모두의 인공지능 기초 수학: 4 정사영 더북(TheBook): (주)도서출판 길벗에서 제공하는 IT 도서 열람 서비스입니다. thebook.io 정사영
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/DMZ4v/btsykpUunRH/y4jfieQeMmtr9FKtoLnFsk/img.png)
stable diffusion의 구조는 CLIP: 텍스트를 받아서 token에 따라 vector를 출력한다. 해당 사진에서 출력된 나무의 경우 나무의 위치가 왜 저 곳으로 매핑됐는지는 알 수 없다. latent space 내에 차원이 특징을 추출한 것으로 입력 데이터의 나무가 사이드에 위치된 데이터가 많았을 수도 있다. stable-diffusion-for-developers (https://haandol.github.io/2023/07/16/stable-diffusion-for-developers.html#fn:4) illustrated-stable-diffusion (https://jalammar.github.io/illustrated-stable-diffusion/) how-stable-diffus..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/cqHCl9/btsyrAOFtr3/HuZzGE23kNG6IVJK7biNEK/img.png)
2022년에 Google Research에서 발표한 Imagen video: High definition video generation with diffusion models (논문, https://arxiv.org/abs/2210.02303) 2023년 기준 총 309회의 인용으로 2022년 10월 발표 이후 활발하게 연구가 진행되고 있다. 기존에 Text-to-image 모델인 Imagen을 비디오 형태로 제안했다. 최초의 비디오 diffusion 모델을 제시한다고 저자는 언급하고 있다. 현재 연구는 image에서 SOTA를 달성한 모델을 영상으로 확장 적용하는 형태로 진행되고 있음. 논문 리뷰 VideoCLIP: Contrastive Pre-training for Zero-shot Video-Tex..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/wyu17/btsw2FEczLK/VaWLiZSgu6W4yG4gx0vZY0/img.png)
직사각형 넓이 구하기 x,y는 직사각형이기 때문에 결국 쌍을 이루게 된다. max x, max y 결국 같은 점으로 엮이도록 만날 수 밖에 없다. 그러면 max로 구했을 때 어쨌든 x,y 각각의 최댓값을 구할 수 있게 된다. [max x, max y]
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/dazSxZ/btsxsl4LI3d/EFtAaeXCjde3SII0FHKwZ1/img.png)
비지도학습의 종류 클러스터링 알고리즘(Clustering algorithms) 클러스터링 알고리즘, 즉 군집화 알고리즘은 분류되지 않은 데이터에서 구조나 패턴을 찾는 데 도움을 준다 이상 감지 모델(Anomaly detection) anomaly detection 알고리즘은 데이터 세트에서 변칙적인 것이나 이례적인 것을 자동으로 감지하고 알려준다. 사기성 거래, 하드웨어 결함 또는 사람의 실수로 인한 잘못된 데이터 포인트를 발견하는 데 유용하다. 잠재 변수 모델(Latent variable models) 데이터가 엄청나게 복잡한 경우에는 데이터를 통한 학습이 어려울 수 있다. 우선, '불량(noisy)' 데이터를 제거하여 단순화함으로써 학습을 용이하게 하고, 데이터에서 의미 있는 인사이트를 찾을 수 있다..
캠브리지 영어 사전 (https://dictionary.cambridge.org/ko/) 인공지능 용어 책갈피 (https://wikidocs.net/200922) latent : 잠재된 present but needing particular conditions to become active, obvious, or completely developed (adj. 활성화되거나 명백하게 되거나 또는 완전히 개발되기 위한 특정한 조건이 있어야만 나타난다) multivariate regression : 다변량 회귀 projection : 예상; 투사; 투사도; 정사영 differentiable : 미분 가능한; 구별할 수 있는 canonical : 표준이 되는 promising : 유망한; 촉진되는 ; 조짐이 ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bMCsdF/btswPX5iEIg/xvq9CM4cEht8zjwQtjw340/img.png)
생성형 모델은 분포를 기반으로 학습시켜 최대한 유사한 분포가 나오도록 하는 것이 목표 1. 잠재 변수(latent variable) 데이터 분포를 만드는데에 영향을 끼치는 변수 Generative Model은 데이터에서 숨겨진 잠재 변수를 학습할 수 있다. 다차원 데이터 세트를 처리하고 비선형 함수를 조합하여 학습을 시킨다. 따라서 어떤 데이터의 잠재변수를 알아내면 이를 통해 유사한 데이터를 생성해낼 수 있다. 따라서 많은 주행 이미지 데이터를 학습 시키고 잠재 변수에 의하여 유사한 데이터를 생성하면 데이터의 생성 분포를 알 수 있고, 분포의 가장자리에 있는 곳이라고 판단 되었을 때 이상치라 판별한다. 여기서 잠재변수의 근간이 되는 아이디어가 주성분분석(Principal component analysis..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/b7amPG/btsvoYKFHya/LX3HjkxM7tOgeRDkVKRqqK/img.png)
## 어텐션 어텐션은 Query, Key, Value의 연산인데 질의문(Query)와 매칭대상(Key)의 유사도를 계산하여 weight를 곱한 후 값(Value)를 다시 곱해 유사도에 따른 값의 가중치를 가질 수 있도록 만든것이다. 셀프어텐션은 Q,K,V값이 모두 동일해 자기 자신으로부터의 유사 가중치를 가지는 것을 의미한다. 하나의 시퀀스에서 첫 번째 토큰과 마지막 토큰 간의 관계를 연산하여 서로 멀리 떨어져 있는 단어들간의 의존성을 고려할 수 있도록 설계된 것이다. ** 2차원의 행렬 곱 차원 일치 (M, N) x (N, P) 3차원 (n, m, k) x (n, k, p) 행렬 A의 마지막 차원과 행렬 B의 두번째 차원 4차원 (b,n,m,k)X(b,n,k,m) 행렬 A의 마지막 차원과 행렬 B의 세..